Satélite al Este de la Estación
Az = A’
Para calcular el ángulo de azimut basándose en lo mencionado anteriormente tenemos:
A’ = Tan-1 { Tan (LONG SAT – LONG E/T) }
{SEN (LAT E/T) }
Para calcular la elevación, primero tenemos:
A = Tan-1 { HCS – R cos d }
{ R sen d }
Donde:
HCS = Distancia promedio del centro de la Tierra al Satélite = 42164.2 km
R = Radio Promedio de la Tierra = 6378.155 km
Cos d = { Cos (Latitud E/T) (Cos (Long SAT – Long E/T)) }
Y para el cálculo de elevación tenemos:
E = A - d
Ejemplo:
Calcular las coordenadas de azimut y elevación a las que se tiene que poner una antena en Panamá para orientarse al Satélite Satmex V, teniendo en cuenta que las coordenadas de la estación transmisora en Panamá son las siguientes:
Latitud de la Estación Terrena = 8.58° N
Longitud de la Estación Terrena = 79.32° W
Longitud del Satélite = 116.8° W
Se calcula primero el ángulo el Cos d
Cos d = { Cos (Latitud E/T) (Cos (Long SAT – Long E/T)) }
Sustituyendo valores tenemos:
Cos d = Cos (8.58) Cos (116.8 – 79.32)
= 0.9888 (0.7935)
= 0.7840
d = Cos-1 0.7840
d = 38.372°
Por lo tanto:
A = Tan-1 { 42164.2 – (6378.155)(0.7840) }
{ 6378.155 (Sen 38.372) }
A = Tan-1 { 37163.726 }
{ 3959.33 }
A = 83.919°
Sustituyendo:
E = A - d
E = 83.919 – 38.372
E = 45.547°
Y el azimut, sabiendo que el satélite está al Oeste de la estación:
Az = 180 + A
Az = 180 + { Tan-1 { Tan (116.8 – 79.32) } }
{ Sen (8.58) }
Az = 180 + { Tan-1 { Tan 37.48 } }
{ 0.149 }
Az = 180 + 79.00
= 259.0°
Se a descrito el método matemático para hacer el apuntamiento de antena, pero a continuación se hace mención de cómo hacerlo en forma gráfica.
APUNTAMIENTO EN FORMA PRÁCTICA
Después de que ya se tiene los ángulos de azimut y elevación obtenidos para forma matemática o gráfica, pues se procede a realizar el apuntamiento en forma práctica.
En la practica, los métodos más empleados para orientar una antena parabólica en azimut son el solar, el de estrella polar, y el de brújula, siendo este ultimo el más popular y el que se sugiere utilizar, para esto es necesario que la antena esté emplazada en un lugar donde no exista ningún obstáculo para recibir la señal del satélite.
Tras ser montada la antena, la cuál para facilitar su orientación deberá ser montada siempre en dirección hacia el sur, se puede apuntar de forma aproximada con la ayuda de la brújula, sin embargo la falta de precisión de la medida dada por la brújula hace que el punto calculado no sea más que una aproximación. Así mismo, al hacer la medida del azimut utilizando la brújula, debe situarse lejos de cualquier objeto metálico, por ejemplo el mástil de la antena, que pueda perturbar la indicación de la aguja.
Dada la mayor precisión del ángulo de elevación, lo más conveniente es ajustar primero éste ángulo. Con la ayuda de un receptor de TV (para el caso de servicios de Televisión), o de un analizador de espectros, encontramos el máximo nivel de señal para éste punto, y posteriormente se gira la antena ligeramente hacia el Este según el azimut calculado, hasta observar que se recibe un máximo de señal.
Una vez localizado el máximo, se fijará la parábola y se hará un nuevo ajuste del ángulo de elevación, hasta conseguir un nuevo máximo en el nivel de recepción. Finalmente, los procesos de ajuste de azimut y elevación se pueden repetir a fin de optimizar el apuntamiento.
INSTRUMENTOS UTILIZADOS EN LA ORIENTACIÓN
Después de que ya se han determinado los ángulos para orientar la antena, es necesario conocer un poco de los equipos que nos ayudarán para realizar el apuntamiento en forma práctica, como son el inclinómetro, la brújula, el analizador de espectros y el equipo de recepción de satélite, y a continuación hacemos una breve descripción de algunos de ellos y como nos ayudan a realizar el apuntamiento.
LA BRUJULA
Para medir el ángulo de azimut de una antena, el instrumento que debe utilizarse es la brújula, la cuál se puede observar en la figura siguiente.
BRÚJULA PARA ORIENTACIÓN DE ANTENAS Figura 16
La brújula es un dispositivo magnético, que siempre nos indica la dirección de las líneas de fuerza del campo magnético terrestre, o sea de Norte a Sur. Ahora, teniendo en cuenta, por una parte, la ley de las atracciones y las repulsiones magnéticas y, por otro lado, que el polo norte de una brújula se dirige hacia el polo norte geográfico de la Tierra, se deduce que el polo magnético de la Tierra que se encuentra en el Norte de la misma es el polo sur magnético, ya que atrae al polo norte de la brújula. Recíprocamente, el polo magnético que se encuentra en el sur geográfico es el polo norte magnético, ya que atrae el polo sur de la brújula.
Sin embargo las brújulas no apuntan directamente al Norte, sino que en realidad la dirección de la brújula forma un cierto ángulo con el meridiano terrestre. Al ángulo que forma la brújula con el meridiano terrestre se le llama declinación magnética en el lugar considerado. Por lo que al hacer el apuntamiento de la antena es necesario considerar éste valor.
Existen ciertos lugares donde la declinación magnética es igual a cero; por ejemplo, en algunas zonas del estado de Florida, del caribe y de América del sur. En estos lugares el azimut de una antena queda perfectamente definido por la orientación de la brújula, sin necesidad de efectuar ningún ajuste. Por otra parte, la declinación magnética puede tomar valores de 100° o más, como ocurre en el archipiélago de Parry, Canadá. En el continente americano, entre las latitudes 60° S y 55° N, esta declinación varia entre 0° y 35° E u O, y en el caso particular de la Republica Mexicana, el intervalo de variación esta entre 5° E y 14° E.
Para orientar antena parabólica en azimut es preciso restar o sumar la declinación magnética valor leído en la brújula, dependiendo de sí la inclinación es hacia el oeste o el este, para localizar el verdadero azimut geográfico. Existen datos publicados de la declinación magnética por zonas geográficas en las llamadas “cartas de líneas isogonicas” y debido a que los polos magnéticos norte y sur varían ligeramente de posición con el tiempo, existen organismos nacionales e internacionales que realizan nuevas mediciones cada tres o cinco años, para actualizar dichas cartas.
En la siguiente tabla se muestran los valores de declinaciones magnéticas de algunos lugares de la República Mexicana.
Ciudad de México |
6.8 |
Guadalajara |
8.1 |
Monterrey |
7.7 |
Ciudad Juárez |
10.9 |
Puebla |
6.6 |
Tijuana |
13.7 |
Tampico |
6.8 |
Torreón |
8.8 |
Mexicali |
13.5 |
Chihuahua |
10.1 |
Acapulco |
6.6 |
San Luis Potosí |
7.5 |
Veracruz |
5.9 |
Hermosillo |
11.6 |
Mérida |
3.2 |
Tabla 5
DECLINACIONES MAGNÉTICAS APROXIMADAS DE ALGUNAS CIUDADES DE MÉXICO
EL INCLINÓMETRO
Para el caso de encontrar el ángulo de elevación de una antena, el instrumento utilizado es un inclinómetro, y una de las formas de realizar la medida consiste en colocar el listón sobre el plato y el inclinómetro encima. Dado que el ángulo medido y la elevación difieren en 90°, el ángulo medido deberá ser:
Figura 17
Ángulo medido = 90° - ángulo de elevación
Ya que se ha orientado una antena, colocándola en los ángulos de azimut y elevación con la ayuda de los instrumentos ya mencionados, como sabemos si ya podemos captar señal, y además saber si ésta es óptima, por lo que es necesario conectar un receptor a la salida de la antena, por lo que se puede ver que el receptor es igual de importante que el subsistema de antena, y por esto vamos a hacer una descripción mas detallada de la parte receptora.
17 EL RECEPTOR
La parte de recepción como se mencionó anteriormente, es la que nos va a indicar que tan bueno ha sido nuestro apuntamiento de antena con el satélite, por lo que este equipo toma una gran importancia en este proceso. Podemos hablar en el caso de que el lado receptor sea una Estación Terrena o un caso más sencillo, que se trate de un receptor de TV. Los equipos básicos necesarios para recibir una señal de satélite son: Un LNB, y el receptor de satélite en sí.
El LNB es un equipo que en un solo bloque realiza las funciones de un LNA y un Down Converter que se utilizan en una Estación Terrena, ya que la señal que llega a la antena, al pasar por el LNB, la amplifica manteniendo fija la relación señal a ruido, y además la convierte a una frecuencia de FI que está en el rango de 950 a 1450 MHz.
Y el proceso de demodulación y de decodificación de la señal que se hacían en dos bloques distintos en la Estación Terrena, se lleva acabo enteramente en el receptor de TV vía satélite.
En la siguiente figura se muestra la configuración básica de un sistema de recepción.
18 Procesamiento de la señal de La Red Edusat
Para poder transmitir la señal de La Red Edusat, ésta debe pasar por una serie de procesos en el transmisor que permiten ordenar la información en una trama de bits. Este proceso se realiza empleando la compresión digital, multiplexión, codificación, decodificación, encriptación, modulación y desmodulación mediante el uso de la tecnología Digicipher I y II. El siguiente diagrama muestra el proceso que transforma a la señal de La Red Edusat, a una forma adecuada para transmitirse vía satélite, la primera etapa se realiza en el telepuerto de la DGTVE, y la segunda etapa la realiza el decodificador.
DIAGRAMA A BLOQUES DEL PROCESAMIENTO DE LA SEÑAL
Equipo de recepción de La Red Edusat. Figura 18
El equipo está conformado por los siguientes elementos:
- Antena parabólica, la cual capta la señal procedente del satélite.
- Bloque amplificador de bajo ruido, también llamado LNB, que capta la señal que refleja el plato parabólico y la modifica para que pueda ser recibida por el decodificador.
- Decodificador, convierte la señal captada por el LNB para que pueda
Observarse en el televisor. Permite además seleccionar los canales de la
Red Edusat.
- Control remoto, sirve para optimizar el uso del equipo.
- Cableado y accesorios, sirven para conectar las diferentes partes del equipo de recepción del sistema Edusat.
- Televisor, permite observar la señal Edusat.
La configuración básica que se tiene en un control maestro para la conexión de video se muestra en la siguiente figura:
Figura 19
En el diagrama anterior se muestra solamente la configuración en video, la configuración en audio es la misma, solo que se maneja por dos canales (izquierdo y derecho).
19 VIDEO ANÁLOGO
En un sistema análogo, la información se transmite mediante alguna variación infinita de un parámetro continuo como puede ser la tensión en un hilo o la intensidad de flujo de una cinta. En un equipo de grabación, la distancia a lo largo del soporte físico es un elemento análogo continuo más del tiempo. No importa en que punto se examine una grabación a lo largo de toda su extensión: se encontrará un valor para la señal grabada. Dicho valor puede variar con una resolución infinita dentro de los límites físicos del sistema.
Figura 20
Variación infinita de un parámetro continúo en función del tiempo
Dichas características suponen la debilidad principal de las señales análogas. Dentro del ancho de banda permisible, cualquier forma de onda es válida. Si la velocidad del soporte no es constante, una forma de onda que sea válida pasará a ser otra forma de onda también válida; no es posible detectar un error de base de tiempos en un sistema análogo. Además, un error de tensión tan sólo hace variar un valor de tensión válido en otro; el ruido no puede detectarse en un sistema análogo.
Se puede tener la sospecha de que existe ruido, pero no se sabe qué proporción de la señal recibida corresponde al ruido y cual es la señal original. Si la función de transferencia de un sistema no es lineal, se producirán distorsiones, pero las formas de onda distorsionadas aún serán válidas; un sistema análogo es incapaz de detectar distorsiones.
Es característico de los sistemas análogos el hecho de que las degradaciones no puedan ser separadas de la señal original, por lo que nada pueda hacerse al respecto. Al final de un sistema determinado la señal estará formada por la suma de todas las degradaciones introducidas en cada etapa por las que haya pasado. Esto limita el número de etapas por las que una señal puede pasar sin que quede inutilizable.
20 El Estándar NTSC
El comité nacional de estándares de televisión estableció la norma NTSC (National Television Standards Committee), como norma establece un sistema de 525 filas entrelazadas a 30 imágenes por segundo (es decir, a una frecuencia de 60 Hz para el vertical y 15750hz para la frecuencia horizontal). Como en el caso de la norma PAL/SECAM, el 8% de las filas se utiliza para sincronizar el receptor. De esta manera, dado que la norma NTSC muestra un formato de imagen de 4:3, la resolución que se muestra en realidad es de 640 x 480. Se utiliza primordialmente en los Estados Unidos, Canadá, Groenlandia, México, Cuba, Panamá, Japón, las Philipinas, Puerto Rico, y parte de Sur-América. La imagen de televisión para dar una sensación de movimiento se tienen que trasmitir 30 cuadros o imágenes los cuales se dividen en dos campos y se transmiten entrelazados dando como resultado su frecuencia vertical de 60, al NTSC se le conoce como un sistema de 525 líneas y 60 campos. El sistema NTSC fundamentó su ciclo temporal en la frecuencia de oscilación eléctrica de 60 Hz. Hay otros países con frecuencia de 50Hz, y se hizo lógico desarrollar un sistema de televisión sobre la base de 50 ciclos.
21 Los Sistemas PAL y SECAM
Mas de la mitad de los países del mundo se adhieren a uno de los dos sistemas de 625 líneas, y 25 cuadros: SECAM (Systèm Électronique pour Couleur avec Mémoire) o PAL (Phase Alternating Line).
SECAM se utiliza básicamente en Francia y los países que antes pertenecían a la antigua Unión Soviética. PAL se utiliza en la mayor parte de Europa Occidental exceptuando Francia y en Argentina.
Figura 21
Las 100 líneas extra en los sistemas PAL y SECAM permiten mayor detalle y claridad en la imagen de video, pero los 50 campos por segundo, comparados con los 60 del sistema NTSC producen cierto "parpadeo" a veces aparente. Aún así como 25 cuadros por segundo están muy cerca del estándar internacional para cine de 24 cuadros por segundo, el cine se transfiere más fácilmente a PAL Y SECAM. En NTSC una película de 24 cuadros por segundo debe ser convertida a 30 cuadros. Esto es efectuando un barrido por duplicado (escaneo) algunos fotogramas de la película a intervalos cíclicos.
Conversión de Estándares. La existencia de distintos sistemas de televisión implica que el intercambio de programación no puede hacerse de manera directa y eso lo hace más complicado. Un video tape grabado en los Estados Unidos, por ejemplo, no puede verse directamente en Inglaterra, sin pasar por un proceso de conversión de estándares.
Esto solía ser un problema pero con la tecnología digital actual es un proceso simple y limpio asumiendo que se tenga acceso a los equipos adecuados. Además hoy existen televisores y videograbadoras multi-estándar que permiten cambiar con un switch entre uno y otro sistema. Se debe recordar que todas las normas vigentes de televisión en la actualidad, NTSC (National Television Systems Comitee), PAL (Phase Alternation Line) y SECAM (Systeme Electronique Color Avec Memoire) se derivan, directa o indirectamente, de los estándares en blanco y negro definidos en los años 40 y 50. Estas primeras emisiones utilizaban un barrido progresivo (todas las líneas de la imagen se barren consecutivamente, como se puede ver en la Figura).
Figura 23
Representación simplificada del barrido progresivo
Por razones de orden práctico (radiaciones debidas a fugas magnéticas de los transformadores de alimentación, filtrados imperfectos), fue indispensable utilizar una frecuencia de imagen que estuviera relacionada con la frecuencia de la red (60 Hz en EE.UU., 50 Hz en Europa) para minimizar el efecto visual de estas imperfecciones; la frecuencia de exploración fue, por tanto, de 30 imágenes/s en EE.UU. y de 25 imágenes/s en Europa. Estas primeras imágenes presentaban un parpadeo bastante molesto (también llamado flicker de campo). Tiempo después la captación de la imagen se hizo electrónica, haciendo que las definiciones alcanzaran un mayor número de líneas, esto gracias al barrido entrelazado.
Barrido entrelazado.
Consiste en la transmisión de un primer campo compuesto por las líneas impares de la imagen y a continuación un segundo campo formado por las líneas pares, como se ve en la figura 23. Esta forma de barrer la imagen, permite duplicar la frecuencia de refresco de la pantalla (50 o 60 Hz, en lugar de los 25 o 30 Hz) sin aumentar el ancho de banda para un número de líneas dado. Como se ve en la figura 24, el barrido entrelazado se obtiene utilizando un número impar de líneas, por ejemplo 525 o 625 líneas que constituyen un cuadro, de manera que el primer campo comience en una línea completa, terminando en la mitad de otra línea, y el segundo campo comience en la mitad de una línea y finalice con una línea completa. En los países donde la frecuencia de la red es de 60 Hz, la velocidad de cuadro es de 30 por segundo y, por consiguiente, la frecuencia de campo es de 60 Hz.
Figura 23
Cuadro completo
Barrido entrelazado 2:1
Debe haber un número impar de líneas en cada cuadro Figura 24
Frecuencias de exploración horizontal y vertical.
La velocidad de campo de 60 Hz es la frecuencia de exploración vertical. Este es el ritmo con que el haz electrónico completa su ciclo de movimiento vertical, desde la parte superior hasta la parte inferior de la pantalla para volver nuevamente a la parte superior. El número de líneas de exploración horizontal de un campo es la mitad del total de las 525 líneas de un cuadro completo (en el sistema NTSC), ya que un campo contiene la mitad de las líneas. Esto da por resultado 262.5 líneas horizontales para cada campo. Como el tiempo que corresponde a un campo es 1/60s y cada campo contiene 262.5 líneas, el número de líneas por segundo es:
262.5 x 60 = 15750 líneas/s
Esta frecuencia de 15750 Hz es la velocidad con que el haz electrónico completa su ciclo de movimiento horizontal de izquierda a derecha y regresa nuevamente a la izquierda. El tiempo durante el cual se realiza la exploración de una línea horizontal es:
1/15750 » 63.5 ms
SINCRONISMOS
Existen dos procesos simultáneos en la exploración, uno mueve el haz en sentido horizontal y el otro en sentido vertical; ambas son exploraciones lineales y se efectúa a una velocidad constante.
Para que estas exploraciones se lleven a cabo es necesario que el haz de exploración se le aplique una sincronización o pulsos que manejen la velocidad y la posición en el haz horizontal y vertical. Para eliminar la distorsión de la imagen debido a la velocidad inicial y a la velocidad final de una línea, al igual que la aceleración y desaceleración del retorno de haz se introduce a cada una de las líneas pulsos de borrado o blanking.
El borrado horizontal es el que le indica al haz electrónico el inicio y él termino retroceso del haz al terminar de describir la línea, cualquier de las 525 H y el borrado vertical es el que indica al haz electrónico el inicio, él termino y retroceso de haz cuando acaba de describir un campo par o un campo non, o sea 262.5 líneas.
BLANCKING HORIZONTAL
Este pulso trabaja moviéndose el haz de electrones horizontalmente y cada una de sus partes se mide en microsegundos, cuando el haz se desplaza a lo largo de la pantalla debe hacerse con una velocidad constante, no así al inicio y al termino del trazo donde la velocidad es de cero debido a que el haz inicia con un aumento de velocidad de cero a la normal y termina de la velocidad normal a cero.
Esto ocasiona que los extremos de la pantalla los elementos de imagen estén más juntos que en el resto de la pantalla, para eliminar esta distorsión se suprime la información de imagen de estos lados mediante el blancking horizontal.
Después de esto el haz describe la información de la primera línea durante 63.3 ms hasta llegar al siguiente lado de la pantalla donde el front porch cortara la señal del video activo por 1.5 ms. Hasta detener el haz y empezar el regreso hacia ala parte izquierda de la pantalla.
Este proceso la realiza la sincronía horizontal y el tiempo que dura el retroceso hasta llagar del otro lado es de 4.7.
Al llegar al lado izquierdo se detiene el haz y empieza a describir una nueva línea, aquí se inicia nueva mente el ciclo con la parte del pulso llamada breezeway la cual se indica que se describe una línea con una referencia de color llamada burts y así hasta completar las 525 líneas.
- FRONT PORCH: 1.5 + .1 microsegundos, es la separación de la parte activa de video con la sincronía además de ser él termino de la información de una línea.
- SINCRONÍA HORIZONTAL: 4.72 + .1 microsegundos, es el retroceso de haz electrónico.
- INCLINACIÓN LEADING Y TREALIN EDGE: .14 + .02 microsegundos, el leading edge indica el inicio de retroceso del haz electrónico. El trealing edge es él termino del haz electrónico.
- BREEZEWAY: 0.6 + .1 microsegundos, es la separación de la referencia de color (burts), con el termino de retroceso del haz electrónico (trealing edge).
- BURTS : 2.23 a 2.3 microsegundos, de 9 a 11 ciclos, se le llama también subcarrier portadora, portadora de color o referencia de color en cada una de las líneas.
- COLOR BACK PORCH: 1.5 microsegundos, es la separación de la referencia de color burts, con la parte activa del video.
- BACK PORCH:4.72 + .1 microsegundos, se compone del breezeway, burts y color back porch, es el inicio de la información de una línea.
- BLANCKING HORIZONTAL: 10.9 + .2 microsegundos, es el inicio, termino y retroceso de información de una línea, cualquiera de las 525.
BLANCKING VERTICAL
Este pulso trabaja moviendo el haz de electrones desde la parte inferior hasta la superior de la pantalla este movimiento lo realiza e en el tiempo de 21 líneas.
Así como el blancking horizontal el vertical suprime la información de la imagen en la parte inferior y en la parte superior debido a las variaciones de la velocidad del haz al descender y ascender por lo que también es necesario borrarlo.
El haz empieza a moverse horizontalmente desde la izquierda de la pantalla y no describe la información o no permite que se empiece a describir la primera de las 525 líneas horizontales que forman a un cuadro de imagen hasta después de que transcurren 4.7 ms. El barrido vertical permite que el haz cubra la pantalla con las 525 líneas, el tiempo de este barrido son los que determinan la relación de aspecto de las pantallas también la relación de estas frecuencias determina el número de líneas horizontales que habrá en cada cuadro de imagen.
- PULSOS PRE-IGUALADORES: es el termino de información de un campo y tarda 3 líneas o 6 pulsos, cada 2 pulsos es igual a una línea.
- SERRACIONES O SINCRONÍA VERTICAL: Es el retroceso del haz electrónico para empezar un nuevo campo tarda 3 líneas de la parte inferior media a la parte superior media.
- PULSOS POS-IGUALADORES: Es el inicio de información de un campo y tarda 3 líneas o 6 pulsos.
- 12 LÍNEAS SIN INFORMACIÓN: A partir de la línea 10 de cada campo ya se tiene información de color, y se les puede dar información de video, por ejemplo los VIT’S que caen de la línea 17, los VIR’s que caen en las líneas 18 y 19, y los VITC que caen en las líneas de la 12 a la 15. A continuación se muestran las definiciones de las siguientes siglas utilizadas para la sincronía vertical.
VIT’s: Vertical interval test
VIR’s: vertical interval reference.
VITC: vertical interval time code.
Figura 26
22 Las señales de color
El sistema para la televisión en color es el mismo que para la televisión monocromática excepto que también se utiliza la información de color. Esto se realiza considerando la información de imágenes en términos de rojo, verde y azul. Cuando es explorada la imagen en la cámara, se producen señales de video separadas para la información de rojo, verde y azul de la imagen.
Sin embargo, para el canal estándar de 6 MHz de televisión, las señales de video de rojo, verde y azul son combinadas de modo que se forman dos señales equivalentes, una correspondiente al brillo y otra para el color. Específicamente las dos señales transmitidas son las siguientes:
Señal de luminancia.
Contiene solo variaciones de brillo de la información de la imagen, incluyendo los detalles finos, lo mismo que en una señal monocromática. La señal de luminancia se utiliza para reproducir la imagen en blanco y negro, o monocroma. La señal de luminancia o Y se forma combinando 30% de la señal de video roja (R), 59% de la señal de video verde (G) y 11% de la señal de video azul (B), y su expresión es:
Y = 0.30R + 0.59G + 0.11B
Los porcentajes que se muestran en la ecuación corresponden a la brillantez relativa de los tres colores primarios (ver Anexo 1). En consecuencia, una escena reproducida en blanco y negro por la señal Y tiene exactamente la misma brillantez que la imagen original. La Figura 27 muestra como el voltaje de la señal Y se compone de varios valores de R, G y B. La señal Y tiene una máxima amplitud relativa de unidad, la cual es 100% blanca. Para los máximos valores de R, G y B (1V cada uno), el valor de brillantez se determina de la siguiente manera:
Y = 0.30(1) + 0.59(1) + 0.11(1) = 1 lumen
Los valores de voltaje para Y que se ilustran en la Figura son los valores de luminancia relativos que corresponden a cada color.
Obtención de la señal Y
Y = 0.30R + 0.59G + 0.11B
Figura 28
Valores de luminancia relativa
Señal de croma: La señal de croma es una combinación de las señales de color I y Q. La señal I o señal de color en fase se genera combinando el 60% de la señal de video en rojo (R), 28% de la señal de video en verde (G) invertida y 32% de la señal de video en azul (B) invertida, y se expresa como:
I = 0.60 R - 0.28 G - 0.32B
La señal Q o señal de color en cuadratura se genera combinando el 21% de la señal de video en rojo (R), 52% de la señal de video en verde (G) invertido y 31% de la señal de video en azul (B), y su expresión es:
Q = 0.21R - 0.52G + 0.31B
Las señales I y Q se combinan para producir la señal C y debido a que las señales I y Q están en cuadratura, la señal C o croma es la suma vectorial de estas, y su expresión es:
Las amplitudes de las señales I y Q son, en cambio, proporcionales a las señales de video R, G y B. en la siguiente figura se muestra la rueda de colores para la radiodifusión de televisión. Las señales R, G y B se utilizan en la mayor parte de los receptores de televisión a color para demodular las señales de video R, G y B. En el receptor, la señal C reproduce colores en proporción a las amplitudes de las señales I y Q. El matiz (o tono del color) se determina por la fase de la señal C y la profundidad o saturación es proporcional a la magnitud de la señal C. La parte exterior del círculo corresponde al valor relativo de 1.
Representación de los colores en NTSC Figura 29
Así se consigue que los sistemas de color y monocromáticos sean completamente compatibles.
23 VIDEO DIGITAL
La digitalización de una señal de video tiene lugar en tres pasos:
- Cuantificación
- Codificación
Muestreo. Sea una señal análoga e (t) como la representada en el Figura 33. Se toman muestras breves de e (t) cada 15' a partir de t=0. En 360' se habrán explorado 24 muestras. El resultado será una serie de impulsos cortos cuyas amplitudes siguen a la señal análoga. A este tren de impulsos modulados en amplitud por la señal análoga se le denomina señal PAM (Pulse Amplitude Modulation o Modulación por Amplitud de Pulsos).Este muestreo puede representarse por la multiplicación de la señal análoga e (t) por un tren de impulsos (t), dando por resultado la señal de la parte inferior de la figura
Muestreo de una señal análoga e(t) por un tren de impulsos u(t)
Ahora bien, una señal de video está compuesta por un gran número de frecuencias formando un espectro continuo que va desde 0 a unos 5 MHz como se representa en la figura 31:
Figura 31
Banda base de la señal de video
Al muestrear esta señal, cada frecuencia de video aparecerá en las bandas laterales superiores e inferiores de cada armónico de la frecuencia de muestreo, incluyendo naturalmente la banda base, esto es, el armónico cero.
El espectro de la señal muestreada se presentará por tanto, como se ve en la siguiente figura. De esta misma figura se deduce una condición elemental que debe cumplirse: que fo>2fs para que la banda lateral inferior de la frecuencia de muestreo y la banda base no se superpongan.
Figura 32
Cuando la frecuencia de muestreo es fo<2fs
Otro motivo de "aliasing" se produce cuando el filtro no está bien calculado y permite el paso de frecuencias de la banda lateral inferior, aunque no estén solapadas con la banda base.
Cuando la frecuencia de corte del filtro PB es superior a fo-fs Figura 33
Cuantificación. Así se denomina al proceso mediante el cual se atribuye a cada muestra un valor de amplitud dentro de un margen de niveles previamente fijado. Este valor se representa por un número que será convertido a un código de ceros y unos en el proceso de codificación.
Por razones de facilidad en los cálculos, el número de niveles se hace coincidir con una potencia de dos y los impulsos de la señal PAM se redondean al valor superior o inferior según sobrepasen o no la mitad del ancho del nivel en que se encuentran.
El error que se produjo con estas aproximaciones equivale a sumar una señal errónea a los valores exactos de las muestras, como se ve en la siguiente figura
Error de cuantificación Figura 34
Esta señal errónea aparecerá en el proceso de recuperación después de la decodificación digital-análoga, en forma de ruido visible. Se habla así de "ruido de cuantificación" que dependerá obviamente del número N de niveles empleados en el proceso. Cuantos más niveles existan menor será el ruido generado. La relación señal/ruido de cuantificación es:
De cuyo resultado se sacan las siguientes conclusiones:
- La relación señal/ruido de cuantificación depende únicamente del número de niveles N en que se subdivide la excursión completa de la señal.
- Existe un sumando constante 10.8 dB que tiene su origen en la misma definición de señal/ruido en televisión, donde se toma para la señal el valor pico a pico y para el ruido su valor eficaz.
Es evidente que usando codificación binaria resulta N=2m donde m=número de bits, por tanto:
La anterior ecuación es valida para la digitalización de una señal monocroma o para cada componente de color. Se adoptaron 8bits para la digitalización de la señal de video, por lo que la relación señal/ruido de cuantificación queda como:
Codificación. La codificación final de la señal de salida de un equipo depende de su aplicación. Puede usarse por ejemplo un código binario puro o un código de complemento a dos para aplicaciones locales. Pero cuando se trata de aplicaciones específicas, la codificación se convierte en un tema trascendente.
Formatos de codificación
Dos planteamientos aparentemente contradictorios se mantienen aún hoy día acerca de la digitalización de la señal de televisión en color:
- La codificación de señales compuestas.
La codificación de componentes.
Codificación de la señal compuesta Figura 35
Codificación de componentes Figura 36
Codificación de las señales compuestas. Esta propuesta consiste en digitalizar directamente las señales compuestas existentes (NTSC, PAL, SECAM). Con ello persiste el problema de la incompatibilidad de las distintas normas internacionales, aun manteniendo la misma frecuencia de muestreo y codificación. La decodificación devolvería las señales NTSC, PAL o SECAM, respectivamente.
La ventaja fundamental de digitalizar la señal compuesta radica en que el equipo puede incluirse como una unidad mas en los estudios análogos actualmente en servicio, sin necesidad de codificar o decodificar el NTSC, PAL o SECAM.
En la siguiente figura se muestra como opera el tratamiento de imágenes análogas durante la transición de la televisión análoga a digital, para el caso de codificación de señales compuestas.
Transición de análogo a digital de las señales compuestas Figura 36
Pasada la transición, la única ventaja que puede aportar la codificación de señales compuestas es el tratamiento de una señal única de video como ocurre actualmente en los Estudios análogos. Para los casos NTSC y PAL que modulan en amplitud a la sub portadora de color, el fundido, mezcla y encadenado corresponderá a una sencilla multiplicación de todas las muestras por un factor situado entre 0 y 1. Pero en el caso del SECAM, es necesario descomponer primero la señal de video en sus componentes Y, R-Y, B-Y antes de la mezcla. Este problema elimina esta ventaja para el SECAM.
Y en todo caso, cada fuente de video digital tendría que disponer de codificación y decodificación NTSC/PAL/SECAM, lo que representa una degradación de las imágenes por causa de los sucesivos procesos de codificación-decodificación. Así, se concluye que en el horizonte se encuentra la digitalización global de las señales en componentes.
Codificación en componentes. Por este método se digitalizan las tres señales Y, K1(R-Y), K2(B-Y) donde K1 y K2 son factores de ponderación que imponen el sistema digital. Estos factores no tienen los mismos valores que los coeficientes ponderados de NTSC, PAL o SECAM.
La primera y gran ventaja que se deriva de esta codificación es que siendo estas tres señales comunes a todos los sistemas, la compatibilidad puede alcanzarse por regulación internacional de los parámetros de muestreo, cuantificación y codificación. En tal sentido el CCIR (Comité Consultatif International des Radiocommunications o Comité Consultivo Internacional de Radio Comunicaciones) emitió en 1982 la norma 4:2:2 CCIR 601 de televisión digital en componentes.
La segunda ventaja de esta codificación es que una vez alcanzada la digitalización plena de la producción, sólo se requiere un paso final de conversión D/A y una codificación NTSC, PAL o SECAM según el sistema adoptado de transmisión. Se añade a las ventajas ya señaladas que el tratamiento digital en componentes elimina los efectos perturbadores mutuos de luminancia y crominancia a la vez que en edición electrónica desaparecen los problemas derivados de la estructura de 4 y 8 campos NTSC y PAL respectivamente. Sólo habría de tenerse en cuenta la estructura de dos campos entrelazados como en televisión en blanco y negro.
La norma CCIR 601 de televisión digital o norma 4:2:2. Esta norma define los parámetros básicos del sistema de televisión digital que aseguran la mayor compatibilidad mundial.
Se basa en una señal Y, Cr, Cb en el formato llamado 4:2:2 (4 muestreos Y por 2 muestreos Cr y 2 muestreos Cb), con una digitalización sobre 8 bits, con posibilidad de ampliarla a 10 bits para aplicaciones más exigentes.
Cualquiera que sea el estándar de barrido, la frecuencia de muestreo es de 13.5 MHz para la luminancia Y. Para las señales de crominancia Cr y Cb, dado su ancho de banda más limitado se muestrean a la mitad de la frecuencia de la luminancia, es decir, 6.75 MHz. Lo que se corresponde con una definición de 720 muestreos por línea en luminancia y de 360 muestreos por línea de crominancia, cuya posición coincide con la de los muestreos impares de luminancia. Ver la Figura 37.
Posición de los muestreos en el formato 4:2:2 figura 37
Para esta frecuencia de muestreo, el número de muestras por línea es de 864 y 858 para la luminancia y de 432 y 429 para las diferencias de color (sistema de 625 y 525 líneas respectivamente).
La estructura de muestreo es ortogonal, consecuencia de que la frecuencia de muestreo es un múltiplo entero de la frecuencia de líneas.
Las muestras de las señales diferencias de color se hacen coincidir con las muestras impares de la luminancia, o sea 1ª, 3ª, 5ª, etc.
El número de bits/muestra es de 8, tanto para la luminancia como para las señales diferencias de color, lo que corresponde a 28 niveles = 256 niveles de cuantificación.
La luminancia utiliza 220 niveles a partir del 16 que corresponde al nivel de negro, hasta el 235 correspondiente al nivel de blanco. Se acepta una pequeña reserva del 10% para la eventualidad de que ocurran sobre modulaciones.
Cuantificación de la señal de luminancia figura 37
Para las señales diferencias de color se utilizan 224 niveles, que se reparten a ambos lados del cero análogo, que se hace corresponder con el número digital 128. Así pues, la señal variará entre los valores extremos 128 + 112 = 240 y 128 112 = 16, con una reserva de 16 niveles a ambos lados.
Cuantificación de la señal de crominancia figura 38
Dado que las señales Cr y Cb están disponibles simultáneamente en cada línea, la definición vertical es idéntica tanto para luminancia como para crominancia, y se corresponde con el número de líneas útiles del estándar de exploración de partida (480 para el estándar de 525 líneas, 576 para los de 625 líneas).
El flujo bruto resultante es:
(13.5 x 8)+ (2 x 6.75 x 8) = 216 Mbit/s (270 Mbit/s con 10 bits)
Además, la digitalización de la parte útil de la señal de video solo requiere 166 Mbit/s, si se tiene en cuenta la inutilidad de digitalizar los intervalos de supresión del haz (también llamados "blanking") de línea y campo. Por tanto, estos tiempos libres pueden aprovecharse para transportar los canales de sonido digital, así como datos de servicio u otros.
A continuación se reproduce la norma 4:2:2 CCIR 601 en el Cuadro.
Parámetros de la norma 4:2:2
Parámetros |
Sistemas |
NTSC
525 líneas
60 campos |
PAL/SECAM
625 líneas
50 campos |
1. Señales codificadas |
Y, Cr, Cb |
2. Número de muestras por línea completa
|
858
429 |
864
432 |
3. Estructura de muestreo |
Ortogonal, estructura idéntica de todos los campos y cuadros. Las señales Cr y Cb se muestran simultáneamente con las muestras impares de la luminancia (1, 3, 5, etc.) |
4. Frecuencia de muestreo
|
13.5 MHz
6.75 MHz |
5. Codificación |
Cuantificación lineal. Codificación con 8 bits por muestra para la luminancia y cada señal de crominancia. |
6. Número de muestras activas por líneas digital:
|
720
360 |
7. Correspondencia entre los niveles de video y de cuantificación:
|
220 niveles de cuantificación. El nivel negro corresponde al número digital 16; el nivel nominal de blanco al número 235.
224 niveles de cuantificación en la parte central del margen de cuantificación. El nivel de video cero corresponde al número 128. |
Tabla 5
Ventajas del video digital. La calidad de reproducción de un sistema digital de video bien diseñado es independiente del medio y depende únicamente de la calidad de los procesos de conversión.
Cuando se copia una grabación digital, aparecen los mismos números en la copia: no se trata de un duplicado, sino de una clonación. Si no es posible distinguir la copia del original, no se habrá producido ninguna perdida en la generación. Las grabaciones digitales pueden copiarse indefinidamente sin que haya pérdida en la calidad.
Una de las mayores ventajas que presenta la tecnología digital es su bajo costo. Si la realización de copias no ocasiona perdidas de calidad, los equipos de grabación no tienen por qué ser mejor de lo necesario. No hay necesidad del consumo de cinta tan grande y costo excesivo que tienen los equipos de grabación análogos. Cuando la información que se ha de grabar adopta la forma de números discretos, estos pueden empaquetarse densamente en un soporte sin pérdida de la calidad. De darse el caso que algunos bits estén defectuosos por causa del ruido o de pérdidas de señal, el sistema de corrección de errores puede restituir el valor original. Las redes de comunicaciones desarrolladas para manejar datos pueden llevar perfectamente video digital acompañado también de audio a distancias indefinidas sin pérdidas de calidad. La difusión de televisión digital emplea estas técnicas para eliminar las interferencias, así como los problemas de atenuación de señales y de recepción de camino múltiple propio de las emisiones análogas. Al mismo tiempo, se hace un uso más eficaz del ancho de banda disponible. Los equipos digitales pueden llevar incorporados equipos de auto diagnóstico. El costo de mantenimiento se reduce.
24 FUNDAMENTOS DE LA COMPRESIÓN DE IMÁGENES
El término compresión de datos se refiere al proceso de reducción del volumen de datos necesarios para representar una determinada cantidad de información. Los datos son los medios a través de los que se transporta la información. Se pueden utilizar distintas cantidades de datos para describir la misma cantidad de información. Por lo tanto, hay datos que proporcionan información sin relevancia. Esto es lo que se conoce como redundancia de los datos. La redundancia de los datos es un punto clave en la compresión de datos digitales.
En la compresión digital de imágenes, se pueden identificar y aprovechar tres tipos básicos de redundancias:
- Redundancia de codificación
- Redundancia entre pixeles
La compresión de datos se consigue cuando una o varias de estas redundancias se reducen o se eliminan.
HISTOGRAMAS DE BRILLO
Las características de brillo de una imagen pueden ser mostradas rápidamente con una herramienta conocida como histograma de brillo. En términos generales, un histograma es una distribución gráfica de un conjunto de números. El histograma de brillo es una distribución gráfica de los niveles de gris de los pixeles en una imagen digital. Proporciona una representación gráfica de cuántos pixeles están en cada franja de niveles de gris. Un histograma se muestra como una gráfica donde en el eje horizontal está el brillo, que va de 0 hasta 255 (para una escala de gris de 8 bits), y en el eje vertical el número de pixeles. El histograma es una conveniente representación fácil de leer de la concentración de pixeles contra el brillo en una imagen. Usando este gráfico se puede ver inmediatamente si una imagen es básicamente oscura o clara y de contraste alto o bajo
REDUNDANCIA DE CODIFICACIÓN
Los histogramas de niveles de gris de una imagen pueden servir para la obtención de códigos que permitan reducir la cantidad de datos necesarios para representar una imagen.
El histograma de una imagen digital con niveles de gris en el rango [0,L-1] es una función discreta p(rk)= nk/n, donde rk es el k-ésimo nivel de gris, nk es el número de pixeles de la imagen con ese nivel de gris, n es el número total de pixeles de la imagen y k=0,1,2,...,L-1.
De forma general se puede decir que p(rk) da una idea del valor de la probabilidad de que aparezca el nivel de gris rk. Si el número de bits empleados para representar cada valor de rk es l(rk), el promedio de bits necesarios para representar cada pixel es:
Es decir, la longitud media de las palabras código asignadas a los valores de los diversos niveles de gris se halla sumando el producto del número de bits empleados para representar cada nivel de gris y la probabilidad de que aparezca este nivel. Así, el número total de bits necesarios para codificar una imagen N x M es NMLmed.
Si se representan los niveles de gris de una imagen mediante un código binario natural de m bits, se logra reducir el término de la derecha de la ecuación a m bits. Es decir, Lmed=m cuando se sustituye m por l(rk). Entonces, se puede extraer la constante m de la sumatoria, dejando solamente la suma de pr(rk) para 0 k L 1, que, naturalmente, es igual a la unidad.
Ejemplo: Una imagen de 8 niveles posee la distribución de niveles de gris que aparece en el Cuadro 3. Si se emplea un código binario de 3 bits (véase el código 1 y l1(rk) en el Cuadro 3) para representar los 8 posibles niveles de gris, Lmed es igual a 3 bits, puesto que l1(rk)=3 bits para todo rk. Sin embargo, si se utiliza el código 2 del Cuadro 3, el número medio de bits necesarios para codificar la imagen se reduce a
Ejemplo de código de longitud variable
rk |
pr(rk) |
Código 1 |
l1(rk) |
Código 2 |
l2(rk) |
r0=0/7=0 |
0,19 |
000 |
3 |
11 |
2 |
r1=1/7 |
0,25 |
001 |
3 |
01 |
2 |
r2=2/7 |
0,21 |
010 |
3 |
10 |
2 |
r3=3/7 |
0,16 |
011 |
3 |
001 |
3 |
r4=4/7 |
0,08 |
100 |
3 |
0001 |
4 |
r5=5/7 |
0,06 |
101 |
3 |
00001 |
5 |
r6=6/7 |
0,03 |
110 |
3 |
000001 |
6 |
r7=7/7=1 |
0,02 |
111 |
3 |
000000 |
6 |
La relación de compresión resultante CR es 3/2.7, es decir, 1.11. Así, aproximadamente el 10% de los datos resultantes al emplear el código 1 es redundante. El nivel exacto de redundancia es:
En el ejemplo anterior, al asignar menos bits a los niveles de gris más probables y más bits a los menos probables, se puede conseguir la compresión de datos. A este proceso se le denomina codificación de longitud variable. Si los niveles de gris de una imagen están codificados de forma que se emplean más símbolos que los estrictamente necesarios para representar cada uno de ellos, entonces se dice que la imagen resultante contiene redundancia de código. En general, la redundancia de código aparece cuando los códigos asignados a un conjunto de niveles de gris no han sido seleccionados de modo que se obtenga el mayor rendimiento posible de las probabilidades de estos niveles.
REDUNDANCIA ENTRE PIXELES
Considérense las imágenes que se muestran en la Figura Como se puede apreciar en la Figura 65, estas dos imágenes poseen histogramas prácticamente idénticos. Puesto que los niveles de gris de estas imágenes no son igualmente probables, se pueden usar códigos de longitud variable para reducir la redundancia que resultaría de una codificación binaria directa o natural de sus pixeles. Sin embargo, el proceso de codificación no alteraría el nivel de correlación entre los pixeles de las imágenes. En otras palabras, los códigos empleados para representar los niveles de gris de una imagen no tienen nada que ver con la correlación entre pixeles. Estas correlaciones resultan de las relaciones estructurales o geométricas entre los objetos de la imagen. muestra los respectivos coeficientes de correlación calculados a lo largo de una línea de cada imagen. Obsérvese la gran diferencia entre los perfiles de las funciones mostradas en la figura 66. Estos perfiles se pueden relacionar cualitativamente con la estructura de las imágenes de la figura 64. Esta relación se destaca particularmente en la Figura 66 derecha, donde la elevada correlación entre los pixeles separados por 45 y 90 muestras se puede relacionar directamente con el espaciado entre los fósforos orientados verticalmente que aparecen en la Figura 64 derecha. Además, los pixeles adyacentes de ambas imágenes están muy correlacionados.
Imágenes de fósforos en diferentes posiciones Figura 39
Histogramas de brillo de las imágenes de arriba Figura 39
Coeficientes de autocorrelación normalizados a lo largo de una línea Figura 40
Estas ilustraciones reflejan otra forma importante de redundancia de los datos (una directamente relacionada con las correlaciones entre los pixeles de una imagen). Puesto que es posible predecir razonablemente el valor de un determinado pixel a partir del valor de sus vecinos, la información que aporta individualmente un pixel es relativamente pequeña. La mayor parte de la contribución visual de un único pixel a una imagen es redundante; podría haberse inferido de acuerdo con los valores de sus vecinos. En relación con estas dependencias entre pixeles se han generado una serie de nombres como redundancia espacial, redundancia geométrica y redundancia interna.
Con el fin de reducir las redundancias entre pixeles de una imagen, la distribución bidimensional de pixeles normalmente empleada para la percepción e interpretación humana debe ser transformada a un formato más eficaz.
COMPRESIÓN DE IMÁGENES SIN PÉRDIDAS
Cuando un conjunto de datos se comprime, como un documento de texto o un dato numérico, se hace siempre para que la descompresión subsecuente produzca el dato original exacto. Si el dato reconstruido no es exactamente igual al original, el documento de texto podría tener caracteres errados, o un computador podría tener unas entradas equivocadas. Debido al tipo de datos que se manejan en estos ejemplos, una aproximación no funciona bien. Para estos casos, los datos deben reconstruirse exactamente igual que su forma original, o el esquema de compresión es inutilizable. El tipo de esquema de compresión donde los datos comprimidos se descomprimen a su forma original exacta se llama compresión sin pérdidas. Está desprovisto de pérdidas, o degradaciones, de los datos.
Se han desarrollado una variedad de esquemas de compresión de imágenes sin perdidas. Muchas de estas técnicas vienen directamente del mundo de compresión de datos digital y se han adaptado meramente para el uso con datos de la imagen digitales.
CODIFICACIÓN DE LONGITUD FIJA
En la codificación de longitud fija, se asignan palabras de código de longitud iguales a cada símbolo en un alfabeto A sin tener en cuenta sus probabilidades. Si el alfabeto tiene M símbolos diferentes (o bloques de símbolos), entonces la longitud de las palabras de código es el entero más pequeño mayor que log2 M.
Dos esquemas de codificación de longitud fija comúnmente usados son los códigos naturales y los códigos Gray, que se muestran en el cuadro 5 para el caso de una fuente de cuatro símbolos. Nótese que en la codificación Gray, las palabras de código consecutivas difieren en un solo bit. Esta propiedad de los códigos Gray puede proveer una ventaja para la detección de errores. Puede mostrarse que la codificación de longitud fija sólo es óptima cuando:
- El número de símbolos es igual a una potencia de dos
- Todos los símbolos son equiprobables.
Sólo entonces podría la entropía de la fuente ser igual a la longitud promedio de las palabras código que es igual a la longitud de cada palabra código en el caso de la codificación de longitud fija. Para el ejemplo mostrado en el cuadro 5, la entropía de la fuente y la longitud media de la palabra código es 2, asumiendo que todos los símbolos son igualmente probables. A menudo, algunos símbolos son más probables que otros, donde sería más ventajoso usar codificación de la entropía. Realmente, la meta de un sistema de compresión de imágenes es obtener un conjunto de símbolos con una distribución de probabilidad inclinada, para minimizar la entropía de la fuente transformada.
Códigos de longitud fija para un alfabeto de 4 símbolos
Símbolo |
Código natural |
Código Gray |
a1 |
00 |
00 |
a2 |
01 |
01 |
a3 |
10 |
11 |
a4 |
11 |
10 |
CODIFICACIÓN DE LONGITUD VARIABLE
El método más simple de compresión de imágenes sin pérdidas consiste en reducir únicamente la redundancia de la codificación. Esta redundancia está normalmente presente en cualquier codificación binaria natural de los niveles de gris de una imagen. Dicha redundancia se puede eliminar construyendo un código de longitud variable que asigne las palabras código más pequeñas a los niveles de gris más probables. Existen varios métodos de codificación de longitud variable, pero los mas usados son la codificación Huffman y la codificación aritmética.
Codificación Huffman
La codificación Huffman convierte los valores de brillo de los pixeles de la imagen original en nuevos códigos de longitud variable, basado en su frecuencia de ocurrencia en la imagen. De esta manera, a los valores de brillo que ocurren más frecuentemente se les asignan los códigos más cortos y a los valores de brillo que ocurren con menos frecuencia se les asignan los códigos más largos. El resultado es que la imagen comprimida requerirá de menos bits para describir la imagen original.
El esquema de compresión Huffman comienza mirando el histograma de brillo de una imagen. Con el histograma, la frecuencia de ocurrencia para cada brillo en la imagen está disponible. Ordenando los valores de brillo por sus frecuencias de ocurrencia, se obtiene una lista donde el primer valor se encuentra más a menudo en la imagen, y el último valor se encuentra menos a menudo en la imagen. Con esta lista, el codificador Huffman asigna nuevos códigos a cada valor de brillo. Los códigos asignados son de longitudes variables; los códigos más cortos son asignados a los primeros (más frecuentes) valores m de la lista y, eventualmente, los códigos más largos se asignan a los últimos (menos frecuentes) valores de la lista. Finalmente, la imagen comprimida es creada simplemente sustituyendo los nuevos códigos de valores de brillo de longitud variable por los códigos de valores de brillo originales de 1 byte. Por supuesto, la lista de códigos Huffman que acopla los valores de brillo originales a sus nuevos códigos Huffman variables se debe añadir a la imagen para el uso de la operación de descompresión Huffman, como se muestra en la Figura 41.
Diagrama de bloques de la codificación Huffman Figura 41
Los códigos Huffman son asignados creando un árbol de Huffman que hace combinaciones con los valores de brillo basado en la suma de las frecuencias de ocurrencia. El árbol de Huffman asegura que los códigos más largos se asignen a los brillos menos frecuentes y los códigos más cortos se asignen a los brillos más frecuentes. Usando el brillo clasificado en orden de sus frecuencias de ocurrencia, los dos del final de la lista (menos frecuentes) se combinan y se etiquetan como 0 y 1. Los brillos combinados son representados por la suma de las frecuencias de ocurrencia. Entonces, se determinan y se combinan las próximas dos frecuencias de ocurrencia más bajas. De nuevo, el siguiente par se etiqueta 0 y 1, y es representado por la suma de las frecuencias de ocurrencia. Esto continúa hasta que todo el brillo se ha combinado. El resultado es un árbol que, cuando se sigue del final hasta el principio, indica el nuevo código Huffman binario para cada brillo en la imagen.
La Figura 42 muestra una imagen de 640 píxeles x 480 líneas, donde cada píxel es representado por simplicidad, por un valor de brillo de tres bits. El histograma de la imagen muestra el número real de píxeles en la imagen con cada uno de los ocho valores de brillo. El brillo se ordena basado en sus frecuencias de ocurrencia y entonces se combina en un árbol de Huffman , como se describió anteriormente. Aunque todos los píxeles en la imagen original fueron codificados como valores de brillo de tres bits, los códigos Huffman son tan pequeños como un bit y pueden ser tan grandes como 7 bits. El código Huffman más largo nunca puede ser mayor que el número de valores de brillo diferentes en la imagen (en este caso 8) menos 1. Aunque una imagen codificada con Huffman puede tener un poco de brillo con códigos muy largos, sus frecuencias de ocurrencia siempre son estadísticamente bajas.
Histograma de brillo de la imagen original figura 42
Figura 43
Creación del árbol de Huffman
La cantidad de datos de la imagen original puede calcularse como 640x480x3 bits. La cantidad de datos de la imagen codificada por Huffman puede calcularse como la suma de las ocho frecuencias de ocurrencia multiplicadas por el respectivo número de bits en su código.
La descompresión de imágenes Huffman invierte el proceso de compresión sustituyendo los valores de brillo originales de longitud fija de un byte por valores codificados de longitud variable. La imagen original se reconstruye exactamente. La compresión de imágenes Huffman generalmente proporcionará razones de compresión de alrededor de 1.5:1 a 2:1.
25 FORMATOS DE VIDEO DIGITAL
Video Compuesto Digital
Los sistemas de video digital también han sufrido evolución, inicialmente el video digital implicaba solamente el convertir video compuesto análogo NTSC hacia digital, mediante este procedimiento no se lograba realmente una mejora importante en la resolución y calidad de la imagen, la única ventaja residía en el hecho de poder efectuar multigeneración sin degradación de calidad. Estos representaron los primeros formatos de video digital, para el caso de videotape aparecieron fabricantes tales como AMPEX, SONY con el formato D2, y PANASONIC con su formato D3, ambos formatos eran video compuesto digital y solo diferían en cuanto a la estructura de datos y grabación, sin embargo la calidad era prácticamente la misma.
Video en Componentes Digital CCIR 601
Como se mencionó anteriormente el video compuesto digital, en realidad no aportaba una mejora importante en la calidad de la señal de video, por lo cual se decidió por manejar la señal de video en componentes con lo cual la calidad si sufría un incremento importante en la calidad, ante esta necesidad surgió la norma CCIR 601, que dicta los estándares para video digital por componentes , la norma CCIR-601 en realidad es un estándar de muestreo, en este se informa sobre él método para efectuar el muestreo de señales en componentes para los sistemas 525/59.94 y 625/50. Esta norma se diseño en conjunto con el SMPTE y se emitió en 1981, el resultado fue la recomendación CCIR –601, esta recomendación explica el muestreo ortogonal a 13.5 Mhz para luminancia y 6.75 Mhz para las dos diferencias de color CB y CR, las cuales son B-Y, R-Y. Esta recomendación especificaba 8 bits de precisión por palabra para representar el video, sin embargo algunos fabricantes así como participantes en el desarrollo del la recomendación sugirieron que 8 bits no resultaban suficientes para representar el video, actualmente es posible encontrar sistemas de 10 e inclusive de 12 bits. El CCIR (International Radio Consultative Comitee) fue reorganizado hace algún tiempo, por lo cual el CCIR ya no existe ahora recibe el nombre de ITU (International Telecommunications Unión), versiones mas recientes con la consideración de 10 bits fueron emitidas ahora por el ITU por ejemplo ITU-R-601-2. Actualmente prácticamente todos los fabricantes producen equipos para producción y post-producción basados en esta recomendación, la cual proporciona las ventajas de operación en digital y componentes, y representa la máxima calidad posible en sistemas de 525 y 625 líneas.
El Sistema 4:2:2
La norma CCIR-601 implica el estándar de video por componentes y se refiere a el muestreo aplicado a las señales de luminancia y las componentes de color, en algunas ocasiones se hace referencia al equipo de video digital en componentes como Sistema de 4:2:2, esta nomenclatura hace referencia a los múltiplos de muestreo que se utilizan para la luminancia y para las componentes de diferencia de color. Para el caso de el 4, este se refiere a 4 veces la frecuencia de la subportadora de color en un sistema NTSC, es decir: 3.57945 Mhz X 4 = 14.3178 Mhz. Este valor se estableció en un valor de 13.5 Mhz, para hacerlo compatible mediante un factor de 2.25 Mhz, con la frecuencia de muestreo del sistema PAL, los otros dos números corresponden a las veces que se muestrean las componentes de color, es decir: 3.57942 Mhz X 4= 7.1588 Mhz. De igual forma la frecuencia par este caso se situó en 6.75 Mhz.
El sistema 4:4:4
Diversas pruebas han demostrado que la transiciones efectuadas cuando se usa el “Chroma Key” en el sistema 4:2:2 da una perturbación perceptible en las transiciones. Por esta razón los fabricantes de equipos de estudio han optado por utilizar el ancho de banda completo para señales en componentes digitales. Como se sabe la precisión de la incrustación depende de la frecuencia más alta presente de la señal de conmutación. Para este caso el sistema 4:4:4 es el más adecuado, por esta razón los switchers de estudio procesan internamente en 4:4:4 aún cuando las entradas y salidas sean en formato 4:2:2. Este es el caso de los switchers de producción de la serie Synergy del fabricante ROSS VIDEO.
26 Formatos de Videotape Digital
La grabación en videotape ha sido siempre una necesidad en los sistemas de televisión ya sean análogos ó digitales; para el caso de los sistemas de televisión digital existen también formatos de videotape digital, los cuales inician desde el sistema de video compuesto digital para el cual se diseñaron dos formatos, el formato D2 fabricado por AMPEX y SONY, y el formato D3 fabricado por PANASONIC, estos dos formatos graban video digital compuesto, por lo cual no planteaban una gran mejora en la calidad de la señal. El formato de video en componentes digitales se llama D1, ó 4:2:2, actualmente muchos fabricantes diseñan equipo en base a estos requerimientos, por ejemplo PANASONIC con el formato DVC-PRO, SONY con Betacam Digital, etc. A continuación se muestra una pequeña tabla con estos formatos:
Nombre |
Tipo |
Cassette |
Comentarios |
Fabricante |
D1
D2
D3
BETACAM
DIGITAL
D5
|
Componentes
4:2:2
Compuesto
(4Fsc)
Compuesto
(4Fsc)
Componentes
4:2:2
Componentes
4:2:2 |
¾”(19 mm.)
¾” (19 mm.)
½” (13 mm.)
½” (13 mm.)
½” (13 mm.) |
Alta calidad uso en post-producción.
Uso Broadcast, edición.
Misma aplicación que D2.
Broadcast, edición, post-producción.
Broadcast, edición, post-producción. |
SONY y otros
SONY
PANASONIC
SONY 10 Bits
usa compresión
PANASONIC
Sin compresión
Compatible con
D3. |
Tabla 6
Velocidad de Transmisión
En los inicios de los sistemas de video digital, una gran cantidad de equipos poseían interfaces paralelas, por ejemplo algunos modelos de Maquinas de Videotape formato D3 Panasonic , tenían esta interface y carecían completamente de salida serial, para poder integrar estos equipos con el resto del sistema era necesario agregar un convertidor de paralelo a serial, es importante recordar que este formato es video digital compuesto por lo cual el ancho de banda es menor que para el caso de video digital por componentes, en la tabla siguiente se muestran las velocidades de los estándares vistos hasta ahora.
Formato |
Data Rate Serial |
4 Fsc- NTSC
4Fsc-PAL
4:2:2
Formato de 16:9
|
Video Compuesto Digital
143 Mb/s
Video Compuesto Digital PAL
177Mb/s
Video en Componentes Digitales , es la misma
velocidad para PAL o NTSC
270 Mb/s
Video en Componentes Digital
formato 16:9
360Mb/s |
Tabla 7
Tecnología mpeg 1 y 2
El sistema mpeg-1 tiene tres partes principales: audio, video y un sistema multiplexor que integra a las otras dos (codificador de audio y de video), como se muestra en la siguiente gráfica. Estos dispositivos funcionan independientemente, pero se sincronizan con un reloj dentro del mismo sistema (90 KHz), que suministra el valor de tiempo, a ambos codificadores. Estos valores son de 33 bits y sus marcas de tiempo se incluyen en la salida codificada y se propagan hasta el receptor, este puede usarlas para sincronizar las corrientes de audio y video.
figura 44
La compresión de audio mpeg se hace muestreando la forma de onda a 32 KHz, 44.1 KHz o 48 KHz; permite manejar sonido monofónico. En este sistema el algoritmo se organiza en tres capas, cada una de las cuales aplica optimizaciones adicionales para obtener mayor compresión (a mayor costo). La primera capa es el esquema básico, esta capa se usa, por ejemplo, en el sistema de cinta digital dcc. La segunda capa agrega asignación avanzada de bit al esquema básico; se usa para audio de cd-rom y pistas sonoras de cine. La tercera capa agrega filtros híbridos, cuantificación no uniforme, codificación Huffman y otras técnicas avanzadas.
La compresión del audio se logra ejecutando una transformación de Fourier con la señal de audio para transformarla del dominio de tiempo al dominio de la frecuencia. El espectro resultante se divide entonces en 32 bandas de frecuencia que se procesan por separado. Cuando están presentes dos canales estéreo, también puede aprovecharse la redundancia inherente por tener dos fuentes de audio altamente traslapadas. La corriente de audio mpeg-1 resultante se puede ajustar desde 32 Kbps hasta 448 Kbps.
Considerando que en la compresión de video mpeg-1. Existen dos clases de redundancia en las películas: espacial y temporal; en los cuales la redundancia espacial puede utilizarse simplemente al codificar por separado cada marco mediante jpeg. Este enfoque se usa ocasionalmente, sobre todo cuando se requiere acceso aleatorio a cada marco, como por ejemplo, en la edición de producciones de video.
La salida del mpeg-1 consiste en cuatro tipos de marcos:
- Marcos I (intracodificados): imágenes fijas autocontenidas y codificadas en jpeg, usando también luminancia de definición completa y croma de definición media sobre cada eje.
- Marcos P (predictivos): diferencia bloque por bloque con el marco anterior, codificando las diferencias entre marcos, que cubren 16 x 16 pixeles de espacio de luminancia y 8 x 8 pixeles de espacio de cromancia.
- Marcos B (bidireccionales): diferencias con el marco anterior y el siguiente.
- Marcos D (codificación cd): promedio del bloque usado para avance rápido.
figura 45
El sistema mpeg-2 tiene una manera más general de multiplexión del audio y video que el modelo mpeg-1, ya que define una cantidad ilimitada de corrientes elementales, incluidos video y audio, pero también corrientes de datos que pueden sincronizarse con estos. Cada una de las corrientes se empaca primero con marcas de tiempo, como se muestra en un ejemplo sencillo de dos corrientes en la figura 45.
El sistema DigiCipher usa la tecnología de compresión digital de video y audio, con el estándar internacional mpeg, que se diseñó principalmente para comprimir video con calidad de difusión de 4 a 6 Mbps, de modo que pueda introducirse en un canal de difusión ntsc. En la compresión de audio, el mpeg-2 soporta el Dolby ac-3 (sonido cuadrafónico), tecnología de audio estéreo digital. El sistema Dolby ac-3 es un sonido digital y se comprende en las frecuencias de 44.1 KHz a 48 KHz,
Con este se puede manejar sonido monofónico, estéreo disjunto (cada canal comprimido por separado) o estéreo combinado (explotación de la redundancia intercanal). El sistema Dolby ac-3 usa una combinación de filtros y compresión de rango dinámico, para reducir los efectos del ruido; como estos efectos son más notorios cuando el nivel de la señal es bajo, el sistema intenta elevar los niveles bajos de la señal para que no sea perceptible el ruido.
El sistema Dolby ac-3 divide el espectro de audio en cuatro bandas de frecuencias (filtro pasa-alto) y aplica una elevación de 10 a 15 dB para las bandas individuales, cuando el nivel de la señal de audio cae por debajo del nivel predeterminado. Él esta alrededor de 45 dB por debajo de una señal estándar, conocida como nivel Dolby y se ajusta con respecto al nivel de flujo en la cinta de grabación. La señal elevada se agrega a la original y se graba. Como se muestra en el diagrama.
29 EL ESTANDAR DVB
Tras unos años de revolución tecnológica en el mundo de las telecomunicaciones en general, sin duda, lo que ha permitido comenzar la revolución en el mundo de la televisión ha sido, por un lado, la viabilidad de la puesta en práctica de las ideas acerca del tratamiento digital de la señal de televisión, y por otra parte, el desarrollo de estándares de codificación y transmisión.
La tecnología para los servicios de TV digital por satélite está desarrollándose rápidamente; este desarrollo es principalmente impulsado por los esfuerzos que se están realizando, en el ámbito de La Unión Europea, para conseguir elaborar los estándares necesarios y se produzca la regulación correspondiente en cada país. Hablar del progreso de la normalización asociada a la difusión de TV digital vía satélite es hablar del proyecto DVB (Digital Vídeo Broadcasting); este proyecto, dio inicio en 1993, y se encarga de elaborar las especificaciones técnicas necesarias, a partir de los requisitos comerciales definidos por organizaciones y empresas interesadas en el desarrollo de este tipo de servicios. El DVB genera normas sobre TV digital que son estandarizadas por el ETSI (European Telecommunication Standard Institute) y el CENELEC (European Committee for Electrotechnical Standardization).
Para comprender la importancia de DVB se tiene que regresar una década atrás, en 1990, cuando la difusión de televisión digital empieza a convertirse en un hecho. En Europa, durante 1991, radiodifusores y fabricantes preocupados por el caos ante equipos de consumo incompatibles discuten la idea de crear una plataforma paneuropea para el desarrollo de televisión digital terrestre; Hacia finales de ese año, radiodifusores, fabricantes de electrónica de consumo y cuerpos reguladores, forman un grupo destinado al desarrollo de la televisión digital en Europa, el ELG (European Launching Group) que incluye a los grupos Europeos de mayor relevancia en el mundo de las telecomunicaciones. Realizan un borrador, el llamado Memorandum of Understanding (MoU), estableciendo las reglas a las que tendrían que atenerse. Este documento se firmó en Septiembre de 1993, y en 1995 se unieron a la firma otras compañías de Estados Unidos (AT&T, CLI, DEC, General Instruments, hoy motorola, Hewlett Packard, Hughes Electronics y Texas Instruments), de Japón (como NEC, Mitsubishi Electric, Pioneer y Sony) y por supuesto de Europa (como ALCATEL, la BBC, EUTELSAT, France Telecom, News Corp, Nokia, RTL, Thomson, y ZDF). ELG se convertiría más tarde en lo que hoy conocemos como DVB (Digital Video Broadacasting).
Queda claro que el satélite y el cable proporcionarían los primeros servicios de televisión digital y a ellos fueron encaminados los esfuerzos, al mismo tiempo, se seguía desarrollando la difusión terrestre.
En 1997, el desarrollo de los proyectos DVB había obedecido satisfactoriamente a sus objetivos iníciales y entró en su siguiente fase, promoviendo la globalización de sus estándares y haciendo de la televisión digital una realidad.
Hoy en día, con la tecnología DVB, no sólo se dispone de una mejor calidad de vídeo y de una mayor oferta de canales, sino que tenemos la posibilidad de acceder a servicios de los que no disponemos, como la televisión a la carta o servicios multimedia. Los éxitos que DVB ha logrado son muy notables y han traspasado las fronteras europeas, con lo que podemos encontrarlos operativos en los cinco continentes, tal como muestra la figura 46
Figura 46. Adaptación de la Norma DVB a nivel Mundial
Muchas organizaciones han prestado su ayuda poniendo en sus manos resultados de trabajos individuales (MPEG, DAVIC), o bien a través de una cooperación activa transformando las especificaciones de DVB en normas e informes (ETSI, CELENEC, UIT). Pero la tarea de DVB aún no ha acabado y sigue trabajando igual que al principio innovando servicios y técnicas de difusión digital de televisión. El estándar DVB asegura tener una mayor flexibilidad para el transporte de trenes de datos multiprograma permitiendo con gran facilidad que estos cambien de medio fácilmente, como por ejemplo pasar del satélite a una distribución por cable.
LA ORGANIZACIÓN DVB
Principios y Objetivos. Los estándares de DVB fueron creados para obtener un entorno de uniformidad en la difusión de televisión digital. Su objetivo es crear un escenario horizontal constituido por plataformas comerciales que ofrecen sus servicios. Sin embargo los procesos de normalización, diseño y puesta en el mercado son lentos, teniendo en cuenta esto, DVB permite la salida a determinados productos como soluciones interinas (legacy) siempre y cuando sean convergentes a la normativa final, esto da lugar a un escenario vertical. Todos los productos DVB cumplen una serie de características, de manera que sus estándares han de ser:
- Abiertos: Los estándares DVB, una vez han sido publicados, están disponibles para cualquier persona en todo el mundo, independientemente del lugar en el que se hayan desarrollado;
- Interoperabilidad: Cualquier sistema DVB ha de ser compatible con otro sistema DVB. Además, tienen la posibilidad de ser trasladados de un medio a otro de forma sencilla. Por ejemplo, las señales DVB se mueven fácilmente del satélite al cable y del cable al sistema terrestre. El siguiente esquema muestra la facilidad con que una señal DVB-S para satélite puede ser transmodulada en una señal DVB-C para cable
Figura 47
La interoperabilidad permite a los fabricantes conseguir una economía de escala. Esto implica la posibilidad de utilizar un conjunto de elementos comunes para todos los sistemas de difusión. Aquí se muestra un circuito común típico de un IRD de DVB.
Figura 48
- Flexibles: DVB puede entregar a casa casi todo lo que puede ser digitalizado. De manera que puede trabajar con TV de Alta Calidad (HDTV), con datos multimedia en banda ancha e incluso con servicios interactivos;
- Dirigidos al mercado: DVB se encarga de desarrollar los productos que necesita el mercado, para ello se hace un estudio de los requisitos comerciales y en base a ellos realiza sus estándares. Esto le permite trabajar en lo que busca el usuario, dándole una fuerte ventaja a la hora de mostrar sus productos. El inconveniente de esta filosofía es que ha de funcionar con agendas muy apretadas.
30 LA TELEVISIÓN DIGITAL
En los últimos meses se ve cada día más cercano el fin de la Televisión Analógica, y el futuro nos muestra la Televisión Digital. Quizás se podría poner como ejemplo lo que sucedió con los discos de acetato y el CD. De esta forma aunque los usuarios no notarán una diferencia de imagen demasiado espectacular si podrán hacer otras cosas con ella.
Características Generales: La mayoría de los equipos usados hoy en día para la creación de programas de televisión son digitales. Aunque todavía se recibe en la televisión domestica señales analógicas, su calidad, disponibilidad y sus contenidos de programa, no serían posibles sin una distribución y producción digital. Cuando se observa un programa en casa, ya sea a través del cable, satélite o microondas, el televidente esta al final de una cadena de eventos, en los que todos, a excepción de la transmisión, son digitales.
Pero, ¿por qué la señal digital?, bien, se pueden agrupar sus ventajas en los siguientes puntos:
- Las señales son más robustas, ya que en una copia de digital a digital la información se regenera totalmente. Además esta regeneración es sencilla y no necesita de equipos complejos, olvidándonos de ajustes y derivas típicos de la electrónica analógica.
- Se puede realizar la memorización de líneas y cuadros, lo que ha permitido una revolución en lo que a manipulación de imágenes se refiere.
- En gran número de casos los procesos digitales son más económicos que los analógicos.
Con esto, la TV Digital proporciona más canales y mejor calidad de imagen, tanto si se habla de televisión de calidad estándar (Estándar Definition Televisión SDTV por sus siglas en inglés), como de alta calidad (High Definition Televisión HDTV). Se obtendrán imágenes con calidad de cine y sonido Hi-Fi, es decir, se permite tener el cine en casa. Se cree que llegará un momento en que todo lo que se puede hacer con un ordenador será posible a través de nuestro televisor abriendo un amplio espectro de posibilidades.
Agentes de la TV Digital y modelos de reparto
Un sistema de TV digital consta de los siguientes componentes:
- Contenidos: De su atractivo depende la suscripción de los usuarios;
- Programador: Agrupa diferentes contenidos en un conjunto de canales para enganchar al usuario;
- Difusor:
- Sistema de acceso condicional (CA): Permite que accedan a la información a los usuarios que la han pagado, esto se hace mediante un sistema de claves.
- Operador de red: Se encarga de multiplexar y transportar varios canales de vídeo digital;
- Usuario: Ha de disponer de una antena parabólica y de un receptor decodificador integrado (IRD) capaz de convertir las señales que llegan por la antena en las adecuadas para tu televisor.
- Suministradores de IRD: El IRD es un decodificador de TV, que transforma las señales que llegan en otras adecuadas a su televisor. Los suministradores están representados por la industria.
- Unidades de Transcontrol a redes de televisión por cable, MMDS o terrenal; Las cabeceras de emisión reciben la señal del satélite y la utilizan para la difusión por sus propias redes.
- Canal de retorno: Es una conexión del IRD que permite la interactividad con el sistema para solicitar algún programa de pago u otro servicio.
Dependiendo del medio en que nos encontremos se tienen diferentes sistemas de distribución de televisión digital, aquí se muestra una representación de tales sistemas.
Figura 48
SISTEMA DE TELEVISIÓN DIGITAL POR CABLE
SISTEMA DE TELEVISIÓN DIGITAL TERRENAL
Figura 49
SISTEMA DE TELEVISIÓN DIGITAL POR MICROONDAS
31 EL SISTEMA DE COMPRESIÓN DE MPEG
Introducción
En 1998 se creó un grupo de trabajo con el nombre de MPEG (Moving Pictures Experts Group). Su objetivo era crear una norma para la compresión de señales de vídeo y datos enfocada a su almacenamiento y recuperación en equipos digitales. El primer estándar MPEG-1 fue publicado en 1993 por OSI, y el resultado fue publicado en 1994 como la norma ISO / IEC 13818. MPEG-2 fue el sistema adoptado por DVB para la codificación de señales de audio, vídeo y como sistema de transporte. El sistema MPEG-2 controla todo tipo de señales de televisión de Baja Definición (LDTV), Alta Definición (HDTV), Definición Estándar (SDTV) y Definición mejorada (EDTV). Además es capaz de negociar con cualquier formato de pantalla, desde la 4/3 a la 16/9.
Obtención de la señal Digital y Compresión
La imagen digital está dividida en un conjunto de pixeles, de esta manera MPEG-2 escribe en la cabecera de cada paquete la dirección del pixel al que va destinado y en su interior unos códigos que informan del brillo y color del pixel elegido. Cada pixel de la imagen se define por una expresión matemática que requiere de tres números, uno correspondiente a la señal de luminancia, Y, y otros dos a la de crominancia, Cr (diferencias respecto del color rojo) y Cb (diferencias respecto del azul). El ancho de banda asignado a las señales de crominancia puede ser la mitad de la de luminancia ya que el ojo humano es menos sensible a las diferencias de color que a las de brillo. Así, por acuerdo internacional, la luminancia se muestrea a 13.5 MHz, mientras que la crominancia lo hace a 6.75 MHz. Por facilidad el muestreo se representa con tres números n:p:q, esto significa que por cada n muestras de luminancia se toman p muestras de Cr y q muestras de Cb. Por ejemplo, el muestreo 4:1:1, significa que se toma una muestra de cada señal de crominancia por cada cuatro de luminancia. A partir de la señal muestreada obtenemos la señal digital codificando con 10 bits cada muestra. Los diez bits por muestra se pueden enviar por un interfaz digital paralelo o serie. Además de todo esto MPEG-2 dispone de códigos correctores y detectores de errores, que protegen la información. Si se transmite la señal digital tal cual se alcanzaría anchos de banda demasiado grandes, por tanto lo que se hace es una compresión. La compresión equivale a la reducción de datos a transmitir o grabar. La compresión es posible porque las señales de audio y las de vídeo contienen redundancia. En el caso de la televisión digital, la redundancia puede ser temporal o espacial.
Se puede hablar de dos tipos de codificación:
- La codificación de secuencias: Si hubiese una secuencia de muestras iguales se transmite el número de veces que se repite el valor de una muestra en lugar de todas las muestras.
- La codificación diferencial: Entre muestras colindantes puede haber mucho parecido, entonces en lugar de enviar el valor, enviamos la diferencia de esa muestra respecto de la anterior.
Para procesar la imagen se utiliza la transformada discreta en coseno alzado, esta función se aplica a las muestras de la imagen. Y, mientras que en el dominio del tiempo tenemos valores muy diferentes, en el dominio de la frecuencia casi todos los valores son pequeños y muy parecidos, esto permite codificarlos y cuantificarlos de una manera eficiente. La proximidad de pixeles puede ser temporal o espacial, y permite tres tipos de predicción básicos:
- Intracampo: Se realiza por comparación de muestras consecutivas. Forma las imágenes I. Estas son las que utilizan el mayor número de bits en su representación.
- Intercampo: Se realiza en función de los cuadros anteriores y posteriores, se trata de una predicción bidireccional. Da lugar a las imágenes B
- Intercuadro: A partir de la imagen actual y de los vectores de movimiento, se predice la siguiente imagen. A la imagen actual se le resta la predicha y se obtiene una imagen de error denominada imagen P, su contenido de información es pequeño, de manera que puede comprimirse fácilmente.
El objetivo de utilizar imágenes P y B es que llevan menos información que si mandamos las originales, ya que lo único que hacemos es mandar información acerca del movimiento. Las imágenes I, P y B se envían en grupos (GOP) de hasta 12 ó 15 imágenes, cada grupo comienza con una imagen I y se extiende hasta otra imagen I, y su transmisión se realiza enviando grupos de imágenes I, P y B. Hay diversos tipos de MPEG-2, se pueden clasificar en cinco perfiles y cuatro niveles tal como sigue:
|
SIMPLE Imágenes-B 4:2:0 No-escalable |
PRINCIPAL Imágenes-B 4:2:0 No-escalable |
SNR Imágenes-B 4:2:0 SNR-escalable |
ESPACIAL Imágenes-B 4:2:0 SNR-escalable Espacial escalable |
ALTO Imágenes-B 4:2:0 ó 4:2:2 SNR-escalable Espacial escalable |
ALTO 1.920-Pixels 1.152 Líneas |
|
80 Mb/s (máx) |
|
|
100 Mb/s (máx) |
ALTO-1440 1.440 Pixels 1.152 Líneas |
|
60 Mb/s (máx) |
|
60 Mb/s (máx) |
80 Mb/s (máx) |
PRINCIPAL 720-Pixels 576-Lineas |
15 Mb/s (máx) |
15 Mb/s (máx) |
15 Mb/s (máx) |
|
20 Mb/s (máx) |
BAJO 352-Pixels 288-Líneas |
|
4 Mb/s (máx) |
4 Mb/s (máx) |
|
|
Tabla 8
Los niveles definen las características de la señal de vídeo original y los perfiles las herramientas utilizadas para la compresión de datos. De los 20 solo 11 son efectivos, a cada uno de ellos se les ha asignado un flujo de bits. DVB ha elegido el principal para la difusión digital de programas.
El sistema de transporte MPEG-2
Este sistema integra los bits correspondientes a las señales de audio, vídeo y otros datos auxiliares en un único flujo. Para cada señal de audio o vídeo la codificación MPEG-2 crea un bloque denominado corriente elemental, a cada corriente elemental se le llama servicio y el múltiplex de uno o más servicios se denomina programa. Para crear la señal de múltiplex primero se divide cada corriente elemental en paquetes llamados PES (Packetized Elementary Stream) con información adicional de cabecera, con los paquetes PES se crean dos tipos de múltiplex: la corriente de programa (PS) y la corriente de transporte (TS),
Los TS llevan información de cabecera adicional. La información de cabecera más importante es el PID (Packetized Identificater) y el PCR (Programm clock reference) que permite sincronizar el codificador y el decodificador.
figura 52
Por último, el sistema MPEG-2 también contiene el PSI (Program Specific Information) que informa al receptor de qué servicio se trata y de cómo decodificarlo. El PSI es muy útil para servicios bajo demanda de la televisión digital.
Empaquetamiento de la información
Lo más interesante, a la hora de conocer cómo funciona este estándar internacional, es el aspecto que se refiere a la integración de la información que queremos transmitir (vídeo, audio y datos), en los paquetes de flujo de transporte. La constitución de la estructura de dicho paquete de transporte se realiza de la siguiente manera:
- Se parte de la imagen inicial (vídeo), o del conjunto inicial de muestras de sonido (audio), denominadas, en el entorno del MPEG-2, como Unidades de Presentación (Presentation Units).
- Estas Unidades de Presentación son codificadas, quedando la información segmentada, en lo que se denomina Elemento Básico de Flujo (ES) (Elementary Stream); éste mecanismo de codificación y segmentación encapsula los Elementos Básicos de Flujo en los Paquetes de Datos (Packet Data), que pueden contener un número variable de bytes contiguos, de un Elemento Básico de Flujo.
- Los Paquetes de Datos son insertados en Paquetes de Flujo Elemental, conocidos como PES (Packetized Elementary Stream), que contienen una cabecera (packet header) seguida de varios paquetes de datos; en la cabecera se incluye información sobre la unidad de presentación a la que pertenecen los paquetes de datos de cada PES, así como la información relativa al propio proceso de codificación (necesaria para la decodificación), y la información sobre el orden de secuencia de los distintos PES en los que se segmenta la imagen o sonido inicial.
- Los PES son agrupados y se introducen como carga útil (payload) del Paquete de Transporte (Transport Packet). Cada Paquete de Transporte lleva un Identificador de Paquete (PID) propio, de manera que todos los Paquetes de Transporte con el mismo Identificador, llevan datos del mismo Elemento Básico de Flujo; en un Paquete de Transporte no se mezclan datos de Elementos Básicos de Flujo distintos. La carga útil puede ser información de vídeo/audio -los PES- o puede ser información específica de programa -PSI-, que explicaremos más adelante.
- Finalmente varios Paquetes de Transporte son multiplexados conformando la Trama de Transporte que está constituida por 188 bytes, de los cuales 4 forman la cabecera, donde se introduce la información necesaria para una decodificación eficaz, y el resto representan la carga útil de la trama, como se representa en la figura siguiente.
- Para construir la Trama de Transporte, el MPEG-2 dispone de dos métodos, denominados Flujo de Programa (PS) (Program Stream) y Flujo de Transporte (TS) (Transport Stream); en difusión por satélite se emplea el Flujo de Transporte, ya que es el que da mejores prestaciones en entornos en los que la probabilidad de error de transmisión es elevada, como son los de radiodifusión; por esto a la Trama de Transporte se le llama directamente Flujo de Transporte. El Flujo de Programa suele emplearse en la transmisión de información multimedia en entornos en los que la probabilidad de error es casi nula, como el CD-ROM.
Representación del esquema del Transport Stream. Figura 53
32 LOS ESTÁNDARES DVB
El Proyecto DVB, tal como se ha estudiado y con el fin de cubrir una serie de requisitos comerciales, ha creado una serie de estándares que cubren los distintos medios en los que se puede llevar a cabo la comunicación. El número de estándares es bastante alto, de manera que aquí solo se presentarán los más importantes:
DVB-S: Sistema de transmisión digital por satélite,
DVB-C: Cubre transmisión digital por cable,
DVB-T: Es un sistema para la transmisión digital terrestre,
DVB-MC/S: Es un sistema de distribución multipunto de video a frecuencias de microondas,
DVB-S Digital Satellite Transmission System
[ETS 300 421]
DVB-S es el estándar que regula la transmisión digital por satélite. Es el estándar más antiguo y el más admitido en todo el mundo. Proporciona un rango de soluciones que son adaptables a los anchos de banda de los transponders entre 26MHz y 72 MHz. La base de la transmisión es una portadora simple que tiene múltiples canales de audio y video digital.
Se puede ver su estructura, como una estructura por capas. Imaginar que se tiene una pelota dividida en capas, pues bien, en el centro se tendrá la "carga útil" (tasa de bit útil). Alrededor se encuentran una serie de capas que hacen que la señal sea menos sensible a errores y coloca la "carga útil"(payload) para su difusión.
El video, audio y otros datos se colocan dentro de paquetes MPEG-2 Transport Stream de longitud fija.
A esto siguen las siguientes etapas de procesamiento:
- El primer paso es colocar los datos como una estructura regular, invirtiendo los bytes en cada octeto que encabeza el paquete.
- El segundo paso consiste en aleatorizar los contenidos.
- Se añade Reed-Solomon Forward Error-Correction (FEC) a la cabecera del paquete de datos. Se trata de un código de corrección de errores hacia delante Reed-Solomon.
- El siguiente paso es un entrelazado convolucional de los contenidos de datos.
- Ahora, se añade otro sistema de corrección de errores, se trata de un código convolucional perforado. Es el segundo sistema de corrección de errores (Inner Code), puede ser ajustado para satisfacer las necesidades de un determinado servicio proveedor. Podemos variar la tasa de bits R entre 1/2 y 7/8. La siguiente tabla muestra los valores específicos de R y los típicos de Eb/No :
R |
1/2 |
2/3 |
3/4 |
5/6 |
7/8 |
Eb/No(dB) |
3.3 |
3.8 |
4.3 |
4.8 |
5.2 |
- El último paso es una modulación usando QPSK (Quadrature Phase-Shift Keying).
El esquema siguiente muestra los pasos seguidos:
Figura 53
El sistema se ajusta a las características del canal básicamente entre la Multiplexación y la transmisión física. El sistema se adopta a las características de error del canal. Así frente a las posibles ráfagas de errores hace una aleatorización, con esto conseguimos que los errores estén separados, así es mucho más fácil recuperar la señal, una vez aleatorizados se añaden dos capas para la corrección de errores. Por último el Inner Code puede ser adaptado en función de las circunstancias (potencia, tasa de bit disponible,...).
La siguiente figura muestra los diagramas de bloques básicos para la transmisión y recepción del sistema DVB.
Figura 55
Sistema DVB-S
1. Inversión de sincronismo y dispersión de energía
- Cada octavo byte de sincronización se invierte para sincronizar el desentrelazado (deinterleaver) y el decodificador Reed-Solomon
- No hay bytes de sincronización adicionales
- Recuperar la fase
2. Codificación externa (Outer Coding)
- Código acortado Reed-Solomon: RS (204,188)
3. Entrelazando (Interleaving)
- Entrelazado Forney
- Profundidad del entrelazado: I=12
4. Codificación Interior (Inner Coding)
- Código Padre Convolucional: 1/2
- Código Convolucional Perforado: 2/3; 3/4; 5/6; 7/8
- Longitud de cota K: 7
5. Filtrado en Banda Base
- Filtro Raíz de coseno alzado, 35%
6. Modulación
DVB-C Digital Cable Delivery Systems
[ETR 300 429]
El documento [ETR 300 429] describe la codificación del canal y modulación para la entrega de señales DVB en redes de cable. Utiliza el mismo sistema que DVB-S, con ciertas diferencias, en primer lugar utiliza la modulación QAM (Quadrature Amplitude Modulation) en lugar de QPSK. Además no necesita del código interior de corrección de errores hacia delante (Inner-code FEC) como ocurre con DVB-S.
La modulación se centra en una 64-QAM, aunque también son factibles niveles inferiores como 16-QAM y 32-QAM y niveles superiores de 128-QAM y 256-QAM. Pero el uso de estas últimas dependerá de la capacidad de la red para hacer frente a los reducidos márgenes de decodificación. Tanto para una modulación de menor nivel habrá que encontrar un compromiso entre la capacidad de los datos y la robustez del sistema. Por ejemplo, si tratásemos con una 64-QAM a 8MHz y sin pisar canales adyacentes podemos alcanzar una capacidad de 38.5 Mbits/s.
DVB-T Digital Terrestial Transmision Systems
[ETR 300 744]
Es el estándar para difusión terrenal de televisión, fue aprobado en febrero de 1997 por el ETSI. Fue creado basándose en unos requisitos del Módulo Comercial Terrestre del proyecto DVB, sus miembros contribuyeron al desarrollo técnico a través del DTTV-SA (Digital Terrestial Television – Systems Aspects). Los proyectos Europeos SPECTRE, STERNE HD-DIVINE, HDTVT, dTTb, y muchas otras organizaciones desarrollaron sistemas de hardware e introdujeron resultados que fueron aplicados después por el DTTV-SA. Del mismo modo que el resto de los estándares de DVB, el DVB-T utiliza como método de codificación de audio y video MPEG-2.
Características Técnicas
El sistema DVB-T es de los más complejos de la familia de estándares, esto es debido a la hostilidad del medio al que se enfrenta. A parte de la utilización del sistema MPEG-2 otros elementos de la especificación son:
- Una modulación COFDM (Coded Orthogonal Frecuency Division Multiplexing) que divide la información en un número de portadoras, el modo “2k” con 1075 portadoras y el modo “8k” con 6817. Ambos sistemas son compatibles entre sí. Cada una de las portadoras es modulada con una tasa binaria baja para que el tiempo de símbolo sea mayor que la dispersión temporal del canal.
- Se usa un código exterior Reed-Solomon y entrelazado (interleaving)al igual que con los otros estándares.
- El mismo código interior que DVB-S (Código convolucional perforado).
- Las portadoras de datos en el marco de COFDM pueden usar QPSK y diferentes niveles de modulación QAM y tasas de código.
- El sistema de modulación combina OFDM con QPSK/QAM. La mayor ventaja de OFDM es su buen comportamiento en propagación multitrayecto.
El sistema DVB-T introduce un intervalo de guarda para protegerse contra ecos y evitar la interferencia intersimbólica. Las características del estándar DVB-T permiten que si el eco cae dentro del intervalo de guarda beneficie a la señal, además, posee un alto grado de inmunidad a las interferencias de banda estrecha, como se puede considerar a las señales de televisión analógicas. Debido a que la señal de DVB-T tiene un gran ancho de banda, solo afectaría a la señal de televisión analógica como ruido blanco. Esto permite la utilización de canales hasta ahora considerados como tabú, además DVB-T permite la introducción de redes de frecuencia única. (SFN- Single Frecuency Networks)
Ventajas e Inconvenientes de SFN (Single Frecuency Networks)
Si se piensa en la planificación de la televisión analógica, se observara que utiliza redes multifrecuencia y debe enfrentarse a interferencias co-canal, esto conlleva una prohibición del canal del 90%. Trasladándose a las redes de frecuencia única, puesto que todos los transmisores emiten lo mismo a la vez y en la misma frecuencia, donde antes se emitía un único programa analógico utilizando 9 frecuencias, ahora se pueden emitir 9 tramas una por canal, conteniendo cada una de ellas un número de programas que estará en función del modo DVB-T seleccionado. Esto produce una eficiencia espectral impresionante. Pero no todo son ventajas, ya que este sistema no permite la introducción de nuevos contenidos y además tiene unos requisitos de sincronización muy estrictos. Para estos últimos se ha creado una especificación, MIP (Megaframe Identification Framer [TR 101 191]), de sincronización de tramas de transporte, este mecanismo requiere de una señal de sincronización externa.
Televisión Digital Terrestre
Hay tres tipos de modelos para la difusión de televisión digital terrestre:
- La difusión en un canal en desuso (canal adyacente o un canal libre);
- La difusión en una red de frecuencia única en un área pequeña;
- La difusión en una red de frecuencia única en un área grande;
Con esto, hay otro de los problemas de DVB-T, que es intentar optimizar el sistema para todos los ámbitos a la vez.
DVB-T es el único estándar internacionalmente aprobado por la difusión de televisión terrestre en Europa, además de ser el único sistema adoptado por 15 miembros de la Unión Europea.
Desde Enero de 1999 se espera que Suecia, España, Dinamarca y Alemania implanten sus redes DVB-T.
DVBMC/S Digital (microwave) multipoint Distribution Systems
[ETS 300 748] & [ETS 300 749]
Es un sistema de distribución multipunto para la entrega directa de TV a casa usando frecuencias de microondas. Estas frecuencias son del orden de los 10 GHz. Hay dos estándares definidos dentro de éste:
DVB-MC: Está basado en los sistemas de entrega por cable, por tanto podríamos usar el mismo receptor para las transmisiones DVB-C y por microondas. Utiliza frecuencias por encima de los 10 GHz.
DVB-MS: Esta basado en los sistemas de transmisión por satélite. Un receptor de señales de DVB-S podría recibir este tipo de señales sin más que añadir un pequeño aparato para convertir a MMDS. Utiliza frecuencias por debajo de los 10 GHz.
EL RECEPTOR DECODIFICADOR INTEGRADO (IRD)
Para que este nuevo sistema de difusión de TV sea compatible con los sistemas anteriores de TV analógica, se necesita algún dispositivo en el conjunto receptor, que permita capturar la señal y realizar el tratamiento necesario sobre ésta, entregue a su salida una señal adecuada al aparato de receptor de TV convencional ya instalado; este dispositivo es el Receptor Decodificador Integrado (IRD).
El IRD también es conocido como Set Top Box, en especial en EE.UU., cuando se quiere recalcar su capacidad de conexión con otros aparatos de procesado de la información como el teléfono, la cadena de audio de alta fidelidad, el vídeo o la PC, constituyendo así una plataforma de usuario para el acceso a la información. En el IRD se encuentran las claves para el acceso condicional a programas y servicios. Un receptor decodificador integrado típico consiste en:
- Un demodulador QPSK (la única parte con componentes analógicos del sistema).
- Un decodificador de Viterbi, con sistema de corrección de errores Reed-Solomon.
- Un demultiplexor para separar los diferentes canales.
- El decodificador MPEG-2 de vídeo y audio.
- Conversores digitales/analógicos, modulador PAL.
- Una CPU, interfaces para tarjetas inteligentes y otros periféricos, para las funciones de Acceso Condicional.
Figura 55
Esquema a bloques de un IRD
Un receptor QPSK típico es capaz de demodular el ancho de banda de un Transponder entero. Por supuesto el receptor se puede sintonizar automáticamente al Transponder deseado.
Uno de los problemas a los que se enfrentan los fabricantes, es la falta de estandarización de los IRD. Para poder cumplir con los requisitos de las diferentes plataformas, se ven obligados a efectuar distintos diseños para cada una. Actualmente, estos diseños están basados en hardware, por el número de tareas críticas que hay que efectuar en tiempo real, y, por consiguiente, carecen de la flexibilidad que proporcionaría un software programable, capaz de adaptarse a diferentes sistemas de acceso condicional. Sin embargo, en breve plazo comenzará a disponerse de IRD más flexibles y con capacidad de acomodarse simultáneamente a varias plataformas, mediante la norma conocida como Interfaz Común.
En los países más adelantados en regulación de televisión digital como el Reino Unido, existen normativas para asegurar la competencia leal y en igualdad de oportunidades entre los fabricantes de IRD, asegurándose muy especialmente que una alianza con un difusor no les sitúa en posición de abuso de posición dominante. El objetivo es conseguir los deseados efectos de economía de escala gracias a la competencia, con el fin de reducir los precios de lanzamiento de la plataforma.
El acceso condicional (AC)
El AC es uno de los aspectos clave a la hora de decidir el desarrollo comercial de la TV digital. Por el carácter estratégico que presenta para los operadores, el DVB ha mantenido un foro de discusión con los agentes interesados, sin que hasta el momento haya decidido que esquema de AC debe ser el empleado. Sus trabajos se han centrado en definir un Interfaz Común dotado de ranuras PCMCIA para la conexión simultánea de varios módulos de acceso condicional (modalidad Multicrypt) y en elaborar las normas para un esquema Simulcrypt.
El sistema de acceso condicional incluye los siguientes elementos:
- Algoritmo de Cifrado del programa o servicio específico; es propio de cada proveedor concreto, por lo que el DVB no ha especificado cómo ha de ser.
- Algoritmo de Aleatorización de Datos; este es un aspecto muy importante a la hora permitir que varios proveedores den servicio a un mismo abonado, por lo que el DVB lo ha normalizado, bajo el nombre de Algoritmo de Aleatorización Común, ya citado en este artículo.
- Sistema de Gestión de Abonado (SMS), que controla los datos sobre los abonados al servicio; es propio de cada proveedor, por lo que el DVB no ha especificado cómo ha de ser.
- Sistema de Autorización de Abonado (SAS), que genera las palabras clave para la descodificación de la información; es propio de cada proveedor concreto, por lo que el DVB no ha especificado cómo ha de ser.
El proceso que sigue el Acceso Condicional es la siguiente: un abonado se da de alta en un cierto evento, programa o servicio de una plataforma de TV digital; esta petición de alta se envía por el canal de retorno al centro de atención del proveedor del servicio, que utiliza su Sistema de Gestión de Abonado para darle de alta y tarificarle, de acuerdo a su petición; el Sistema de Autorización proporciona, los mensajes necesarios a la trama MPEG para permitir el acceso a este abonado autorizado; estos datos de AC son extraídos del TS por el IRD y validados con la información contenida en la tarjeta del abonado, habilitando, en caso afirmativo, el funcionamiento del desaleatorizador.
Es fundamental observar que para que se pueda llevar a cabo este proceso que acabamos de describir, debemos tener en cuenta tres factores clave y a veces contrapuestos:
- El IRD tiene un alto precio que supone un coste para el difusor. Sería necesario un sistema de AC que hiciese posible el retorno de las inversiones realizadas, en forma de subvenciones a los IRD necesarias para lanzar el negocio, mediante la fidelización de los abonados a su plataforma.
- Desde el punto de vista del usuario, será conveniente que no necesite adquirir un nuevo IRD para poder disfrutar de los servicios de un nuevo operador, porque está situación resultaría incomoda para él.
- El IRD debe permitir a los distintos operadores adaptar sus sistemas de AC en condiciones técnicas favorables.
Teniendo en cuenta estos factores, el DVB ha estudiado dos posibles soluciones:
Simulcrypt
Esta solución supone que un operador proporciona un IRD al usuario que incluye en su interior su sistema de acceso condicional. El concepto Simulcrypt admite la compatibilidad con los sistemas de AC de otros operadores que funcionan con el mismo concepto, ya que al incorporarse un nuevo operador dirigido a un mismo abonado, el segundo operador debe negociar con el primero que subvencionó el IRD para llegar a un acuerdo comercial. La compatibilidad se consigue difundiendo, por parte de ambos operadores, de los mensajes de control y gestión del acceso condicional propio y los del otro operador.
Esta situación supone que una vez instalado el IRD, los siguientes operadores deben negociar con el primero para poder acceder a los usuarios de éste, facilitando al primer operador la amortización del IRD instalado inicialmente, al poder traspasar parte del costo a los siguientes operadores que quieran participar de los IRD’s subvencionados por él.
Interfaz común: Multicrypt
Esta solución busca la compatibilidad física y lógica del IRD básico; esto supone que el IRD se separa en dos bloques: el bloque encargado de las funciones comunes de recepción y demultiplexado y el bloque que se encarga de las funciones exclusivas de cada sistema de acceso condicional particular, incluido en un módulo extraíble externo, interconectados mediante un bus PCMCIA. El módulo externo puede desarrollarse y producirse a un costo que no suponga excesivas inversiones para el usuario, de manera que el usuario puede abonarse a una nueva plataforma sin cambiar su IRD. Además es un sistema abierto, que no requiere acuerdos entre operadores, salvo que exista uno que haya subvencionado el IRD.
33. SERVICIOS SOBRE LA PLATAFORMA DE TV DIGITAL.
Las infraestructuras de la TV digital permiten soportar servicios variados, siendo la característica principal que son servicios digitales y, por tanto, pueden integrar aplicaciones de TV con aplicaciones de datos. Estos servicios son una revolución en el sector audiovisual respecto a la TV analógica, ofreciendo una convergencia real de mercados y tecnologías equiparable a la telemática.
Los servicios que ofrece la plataforma de TV digital se pueden clasificar en:
- Servicios audiovisuales, basados en la emisión y recepción de señales de TV, adaptados a los gustos del usuario.
- Servicios interactivos, que mediante la adición de datos sobre el TS y la correspondiente aplicación que corre en el IRD, añade nuevas funciones al TV
- Servicios de acceso a Internet, mediante conectividad TCP/IP, desde la entrada a los codecs MPEG-2, hasta la salida de datos del IRD
La característica fundamental que hace posible la oferta de estos servicios es la digitalización, cuyas ventajas, entre otras, podemos citar:
- Aumento de calidad
- Mayor eficiencia en el uso del espectro
- Independencia de la fuente de información
- Facilidad de procesado y almacenamiento de la información
- Mayor flexibilidad y facilidad de incorporación de nuevos servicios
Ésta última es la ventaja definitiva. La televisión es el medio de acceso a la información más difundido en el mundo. Por ello, parece lógico suponer que éste es el camino con mayor facilidad de penetración para los servicios avanzados que conformaran la sociedad futura basada en la información. Añadiendo que para la interactividad, la TV digital incorpora un canal de retorno, inexistente en la TV analógica convencional.
Servicios Audiovisuales
Los servicios más conocidos hasta ahora son los denominados Servicios de Televisión de Pago, que se exponen a continuación:
- El Pay-Per-View (PPV), pago por evento de un programa en concreto.
- El Vídeo Casi Bajo Demanda, NVOD, o posibilidad de ver un programa que comienza con intervalos de separación fijos pero relativamente pequeños, del tipo media hora, de manera que el abonado puede seleccionar el momento más adecuado para comenzar a verlo.
- El Pay-Per-Event, o poder ver un acontecimiento particular a una fecha y hora determinada, mediante una entrada virtual.
Es interesante destacar que estos servicios pueden enviarse sobre canales virtuales, por ejemplo, varios NVOD por ejemplo, sobre el mismo canal, comenzando con intervalos de tiempos de un cuarto de hora.
Para que el sistema se pueda gestionar eficientemente se necesita que la EPG permita reservar a qué horario se desea ver el programa (típicamente una película de actualidad). En este caso, la información sobre el NVOD llegaría a través del modem al sistema de gestión que enviaría las oportunas órdenes de transmisión y una factura detallada con los programas suscritos.
Servicios Interactivos
Los servicios interactivos funcionan de la siguiente manera. En el extremo emisor un servidor de aplicaciones inserta los datos que componen el servicio avanzado en el múltiplex que se envía por medio del Transponder del satélite. El IRD decodifica la información y ejecuta la aplicación enviada. La interactividad generada por el usuario se envía por el canal de retorno a un servidor transaccional. Este servidor verifica la seguridad y fiabilidad de estos datos, y dirige la respuesta del servidor específico que da satisfacción a la petición del usuario. El usuario interacciona con el servicio avanzado sobre el televisor a través del mando a distancia del IRD. A continuación se ofrece una lista, sin pretender que sea exhaustiva, de algunos de los servicios avanzados posibles:
- La propia Guía Electrónica de Programación, con la posibilidad de acceder a otros servicios o navegar y pedir información más detallada
- Carruseles de información cíclica: datos sobre horarios de trenes, cotizaciones de bolsa, etc.
- Pre-visualización de programas
- Telecompra, incluyendo la interactividad mientras se ve un cierto anuncio o vídeo
- Juegos interactivos
- Tele banca, con acceso a bases de datos (mercados financieros, bolsa, etc.)
- Servicio de reserva de entradas y billetes, a partir de la información turística presentada
- Telecarga de software (aplicaciones, videojuegos, etc)
- Teleeducación
34 Servicios de Acceso a Internet
Además de los más conocidos servicios de televisión de pago e interactivos, la independencia de la fuente de información característica de la TV digital permite acceder a Internet, con todo lo que ofrece, desde el televisor (WebTV) o desde un PC. Por ello, se menciona en muy breve plazo a una nueva forma de acceso y uso de la información, que ya no requiere ni siquiera el manejo de un ordenador personal, con terminales como el WebTV, que consiste en un TV con funciones de navegación por Internet.
Una solución imaginativa para acercarse al escenario ideal de los servicios WWW, que son asimétricos y bidireccionales, pasa por la integración de dos redes existentes, la red de TV y la red telefónica, lo que se denomina una solución fragmentaria. Pero la red terrestre de TV es analógica y actúa en una banda de espectro ya muy saturada por los canales convencionales, por lo que es difícil integrar un servicio de datos en su estructura de transporte y difusión, [GTICa, 1997. Por esto observamos la necesidad de integrar este servicio, en la plataforma prevista para la difusión de TV digital vía satélite, mediante la arquitectura mostrada en la siguiente figura:
Conclusion :
Sin duda este documento es tan solo una introducción al mundo televisivo y sus diversas normas y estándares así como tecnología y medios para poder comunicar a los seres humanos, pero la importancia de conocer lo que es la comunicación por satélite y a su vez por otros medios y comprender como es posible que esto llegue a los lugares mas remotos es imprescindible sobre todo para los maestros que en la sierra tienen que apoyarse en esta tecnología para poder dar su clase y los instaladores del equipo tendrán una información que los ayudara a realizar mas eficientemente su trabajo tienen y al mismo tiempo tendrán una referencia para investigar cada tema y llegar a dominar todos los principios de la comunicación satelital y televisión digital así como en su momento se llego a conocer a fondo la televisión analógica.
Bibliografia :
Olivia Alejandra Alva Vargas Diplomado Calculo de enlace satelital Centro De Entranamiento de Television educativa (Cete) 2007
Alfredo Borque Palacin TV color: Sistema NTSC Edit. Paraninfo 1981
Diego Gilless El Libro Mas Guía de Ingeniería para la transición Digital editado por NVISION 1999
Michel Robin Television in Transition. Edit. Miranda Technologies Inc 2001
Raúl Ibarra Quevedo, Miguel Ángel Serrano.
Telecomunicaciones Móviles. Alfa Omega. México. 2a. ed. (1999).
John Wiley. Satellite Communications. New York. 2a ed. (2003).
Roden. M. S Analog and Digital Communication Systems. Prentice Hall. New Jersey. 4a.ed. (1996)
Luis E. Frenzel Traducción Carlos Cortez Gutiérrez Sistemas Electrónicos de Comunicaciones edit. Alfaomega 2003
Jose Simonetta Television Digital avanzada Edit. Limusa 2006
K. F. Ibrahim Receptores de Television Edit. Marcombo 2001
Stark, H. et al. Modern Electrical Communications: analog, digital, and optical systems. Prentice-Hall. Englewood Cliffs, NJ, 2a ed.(1988).
www.satmex.com.mx
https://pnd.calderon.presidencia.gob.mx/index.php?page=transformacion-educativa
https://www.ilce.edu.mx/
https://dgtve.sep.gob.mx/
https://www.servsat.com/productos/antenas.htm
https://www.tek.com/